Modell augmentációra és megerősítő tanulásra épülő olyan adaptív irányítástervezési módszerek kidolgozása, amelyek képesek a működéssel szemben támasztott szigorú biztonsági előírásokat a tanulás fázisában is betartani és a tanulás eredményeként olyan szabályozót hoznak létre, amely biztosítja az irányított rendszerre előzetesen előírt korlátozások garantált betartását és a performancia-követelmények megvalósítását.
Az autóipari, mechatronikai és vegyipari alkalmazásokban egyre inkább növekvő teljesítmény követelmények és a robbanásszerűen növekvő hardware komplexitás megköveteli, hogy az eddigi, főképp ideális generikus fizikai modellezést követő szabályozó tervezésen túl, egy adott eszköz egyedi specifikus dinamikáját megcélzó és annak változásaihoz alkalmazkodni tudó szabályozó algoritmusok kerüljenek kifejlesztésre amik természetesen az eddigi szabályozás technológia garanciáit és megbízhatóságát is kifogástalanul tudják biztosítani. Az így lehetővé való technológiaváltás elméleti hátterének kifejlesztését és annak hatékonyságának kísérleti eszközökön és ipari alkalmazásokban való demonstrálását célozza meg a kutatás.
Komplex rendszerek illetve összetett irányítási feladatok esetén, ahol fizikai modell nem áll rendelkezésre és/vagy a feladat bonyolultsága miatt az irányítási stratégia nem rögzíthető előre, megerősítő tanulás (reinforcement learning) alapú irányítástervezési módszerek jönnek szóba. Ezeknél az eljárásoknál különösen fontos a tanulás fázisában a biztonsági követelmények betartása, a működési teret hatékonyan feltérképező kísérletek megtervezése (exploration) valamint annak biztosítása, hogy az iteratív tanulási algoritmus konvergáljon a kívánt performanciát megvalósító irányítási stratégiához.
Várható eredmények:
Öntanuló, adaptív (prediktív és RL) tanulási algoritmusok (toolchain) és a kapcsolódó safe learning eljárások kidolgozása, ezek implementációja valós rendszereken, az ipari alkalmazhatóság demonstrációja.