About: Hierarchické Q( ) učení inteligentních agentů v prostředí umělého života     Goto   Sponge   NotDistinct   Permalink

An Entity of Type : http://linked.opendata.cz/ontology/domain/vavai/Vysledek, within Data Space : linked.opendata.cz associated with source document(s)

AttributesValues
rdf:type
Description
  • This research integrates rigorous methods of reinforcement learning (RL) and control engineering with a behavioral (ethology) approach to the agent technology. The main outcome is hybrid architecture for intelligent autonomous agents targeted to the Artificial Life like environments. The architecture adopts several biology concepts and shows that they can provide robust solutions to some areas. The resulting agents perform from primitive behaviors, simple goal directed behaviors, to complex planning. The agents are fully autonomous through environment feedback evaluating internal agent state and motivate the agent to perform behaviors that return the agent towards optimal conditions. This principle is typical to animals. Learning and control is realized by multiple RL controllers working in a hierarchy of Semi Markov Decision Processes (SMDP). Used model free Q( ) learning works online, the agents gain experiences during interaction with the environment. (en)
  • Motivací tohoto výzkumu je ověření možnosti spojit rigorózní metody posilovaného učení a teorie řízení s behaviorálním (etologickým) přístupem k agentním technologiím. Výsledkem je architektura inteligentního autonomního agenta, který funguje v prostředích umělého života. Agent provádí od reaktivních chování (např. prchání a požívání potravy), přes jednoduché cílené chování (např. hledání zdrojů vody), až po komplexní plánování. Komplexním plánováním může být stavba přístřešku, průchod bludištěm s překážkami a hlavolamy a pod. Výsledné chování vzniká emergencí všech chování, která jsou volena na základě aktuálních priorit a motivací. Agent kontinuálně optimalizuje své chování za účelem zvýšení pravděpodobnosti přežití - optimalizačním kritériem je vzdálenost vnitřního stavu agenta od ideálních hodnot. Základními komponentami agenta jsou fyziologický systém, a kontroler. Fyziologický systém reprezentuje agentův vnitřní stav a jeho dynamiku.
  • Motivací tohoto výzkumu je ověření možnosti spojit rigorózní metody posilovaného učení a teorie řízení s behaviorálním (etologickým) přístupem k agentním technologiím. Výsledkem je architektura inteligentního autonomního agenta, který funguje v prostředích umělého života. Agent provádí od reaktivních chování (např. prchání a požívání potravy), přes jednoduché cílené chování (např. hledání zdrojů vody), až po komplexní plánování. Komplexním plánováním může být stavba přístřešku, průchod bludištěm s překážkami a hlavolamy a pod. Výsledné chování vzniká emergencí všech chování, která jsou volena na základě aktuálních priorit a motivací. Agent kontinuálně optimalizuje své chování za účelem zvýšení pravděpodobnosti přežití - optimalizačním kritériem je vzdálenost vnitřního stavu agenta od ideálních hodnot. Základními komponentami agenta jsou fyziologický systém, a kontroler. Fyziologický systém reprezentuje agentův vnitřní stav a jeho dynamiku. (cs)
Title
  • Hierarchické Q( ) učení inteligentních agentů v prostředí umělého života
  • Hierarchické Q( ) učení inteligentních agentů v prostředí umělého života (cs)
  • Hierarchical Q ( ) Learning Intelligent Agents in an Artificial Life Domain (en)
skos:prefLabel
  • Hierarchické Q( ) učení inteligentních agentů v prostředí umělého života
  • Hierarchické Q( ) učení inteligentních agentů v prostředí umělého života (cs)
  • Hierarchical Q ( ) Learning Intelligent Agents in an Artificial Life Domain (en)
skos:notation
  • RIV/68407700:21230/08:00165605!RIV10-MSM-21230___
http://linked.open...avai/riv/aktivita
http://linked.open...avai/riv/aktivity
  • P(1M0567), S
http://linked.open...vai/riv/dodaniDat
http://linked.open...aciTvurceVysledku
http://linked.open.../riv/druhVysledku
http://linked.open...iv/duvernostUdaju
http://linked.open...titaPredkladatele
http://linked.open...dnocenehoVysledku
  • 370041
http://linked.open...ai/riv/idVysledku
  • RIV/68407700:21230/08:00165605
http://linked.open...riv/jazykVysledku
http://linked.open.../riv/klicovaSlova
  • behavior based robotics; agents; hierarchical reinforcement learning (en)
http://linked.open.../riv/klicoveSlovo
http://linked.open...ontrolniKodProRIV
  • [596648A3F3BB]
http://linked.open...v/mistoKonaniAkce
  • Praha
http://linked.open...i/riv/mistoVydani
  • Opava
http://linked.open...i/riv/nazevZdroje
  • Kognice a umělý život VIII.
http://linked.open...in/vavai/riv/obor
http://linked.open...ichTvurcuVysledku
http://linked.open...cetTvurcuVysledku
http://linked.open...vavai/riv/projekt
http://linked.open...UplatneniVysledku
http://linked.open...iv/tvurceVysledku
  • Nahodil, Pavel
http://linked.open...vavai/riv/typAkce
http://linked.open.../riv/zahajeniAkce
number of pages
http://purl.org/ne...btex#hasPublisher
  • Slezská univerzita v Opavě
https://schema.org/isbn
  • 978-80-7248-462-1
http://localhost/t...ganizacniJednotka
  • 21230
is http://linked.open...avai/riv/vysledek of
Faceted Search & Find service v1.16.118 as of Jun 21 2024


Alternative Linked Data Documents: ODE     Content Formats:   [cxml] [csv]     RDF   [text] [turtle] [ld+json] [rdf+json] [rdf+xml]     ODATA   [atom+xml] [odata+json]     Microdata   [microdata+json] [html]    About   
This material is Open Knowledge   W3C Semantic Web Technology [RDF Data] Valid XHTML + RDFa
OpenLink Virtuoso version 07.20.3240 as of Jun 21 2024, on Linux (x86_64-pc-linux-gnu), Single-Server Edition (126 GB total memory, 85 GB memory in use)
Data on this page belongs to its respective rights holders.
Virtuoso Faceted Browser Copyright © 2009-2024 OpenLink Software