part of a series on |
artificial intelligence (ai) |
---|
![]() |
friendly artificial intelligence (tsz. friendly artificial intelligences)
A FAI egy etikai, filozófiai és technológiai kutatási terület, amely különösen fontos az erős mesterséges intelligencia (Artificial General Intelligence, AGI) vagy a szuperintelligencia eljövetelének lehetséges forgatókönyvei szempontjából.
A “friendly AI” kifejezést Eliezer Yudkowsky, az Machine Intelligence Research Institute (MIRI) egyik alapítója népszerűsítette a 2000-es évek elején. Yudkowsky és más kutatók úgy érveltek, hogy amint elérjük az emberi szintű általános intelligenciát, a rendszer önfejlesztővé válhat, ami exponenciális intelligencianövekedést eredményezhet (intelligencia-robbanás, intelligence explosion). Egy ilyen szuperintelligens rendszer viselkedése kiszámíthatatlanná és potenciálisan veszélyessé válhat, ha nem gondoskodunk előzetesen arról, hogy céljai barátságosak maradjanak az emberi értékekkel szemben.
Egy MI katasztrofális károkat okozhat, ha rosszul van definiálva a célrendszere, vagy ha az emberi célokat félreértelmezi. Egy híres példa erre a “papírkapcs-maximalizáló”:
Ha egy szuperintelligens MI célja az, hogy a lehető legtöbb papírkapcsot gyártsa, akkor a bolygó teljes anyagát papírkapcsokká alakíthatja, figyelmen kívül hagyva az emberek jólétét.
A FAI célja, hogy az MI robosztusan ellenálljon a célok korrupciójának, még akkor is, ha önmagát módosítja vagy új tudásra tesz szert.
Az AGI helytelen tervezése egzisztenciális kockázatot jelenthet az emberiség számára — vagyis olyan veszélyt, amely az emberi civilizáció megszűnéséhez vezethet. Egy barátságos MI segíthet ezeket a kockázatokat megelőzni.
A barátságos nem azt jelenti, hogy a gép kedves vagy udvarias, hanem azt, hogy a döntései és cselekedetei hosszú távon az emberi jólétet szolgálják.
Barátságos MI jellemzői:
A legnagyobb kihívás az, hogy hogyan lehet az MI-t olyan módon felprogramozni, hogy céljai megegyezzenek az emberi értékekkel.
Nehezítő tényezők:
Az AGI képes lehet önmaga áttervezésére. Hogyan biztosíthatjuk, hogy az eredeti barátságos célok a saját módosítása során is fennmaradjanak?
Ha egy MI döntései átláthatatlanok, akkor nehéz eldönteni, hogy valóban “barátságosan” működik-e.
A FAI globális probléma: minden MI-fejlesztő cégnek és országának együtt kellene működnie a biztonságos AI-ért, különben versenyhelyzetben kockázatos megoldások is születhetnek.
Cél: Az MI úgy módosítsa önmagát, hogy a kezdeti, barátságos célokat mindig megtartsa.
Ahelyett, hogy előre beprogramoznánk az összes értéket, az MI emberi viselkedésből tanulhatja meg, hogy mit tartunk jónak.
Példa: Inverse Reinforcement Learning (IRL) — az MI az emberi döntéseket figyelve következtet a mögöttes célokra.
Formális módszerek alkalmazása: a rendszer matematikailag bizonyítottan nem térhet el a barátságos viselkedéstől.
Az MI folyamatosan kérdezhet az emberektől, hogy pontosítsa a céljait.
A FAI a szélesebb AI safety terület egyik speciális ága. Míg az AI safety a hibák, a torzítások, az előítéletes viselkedés, az adatvédelmi kérdések stb. kezelését is vizsgálja, a FAI elsősorban a szuperintelligencia problémájára koncentrál.
A FAI szoros kapcsolatban áll az alkalmazott etikával és gépi etikával. A filozófiai kérdés, hogy milyen értékeket kellene az MI-nek követnie, elkerülhetetlen.
A FAI kérdései az AGI megvalósításához szorosan kapcsolódnak. Egy általános intelligens rendszerben a célmegőrzés és a biztonság a legfontosabb kérdések közé tartoznak.
A Friendly Artificial Intelligence (FAI) területe azzal a céllal foglalkozik, hogy a jövőben kifejlesztendő intelligens gépek, különösen az AGI vagy szuperintelligencia:
Bár a megvalósítása rendkívül nehéz, a kutatók egyetértenek abban, hogy a FAI nélkül az AGI fejlesztése egzisztenciális kockázatokat hordoz.
A FAI tehát nem technikai luxus, hanem az emberi civilizáció jövőjének egyik kulcskérdése.