Co OpenAI chystá: Více kontroly pro rodiče
Společnost OpenAI oznámila, že během následujícího měsíce zavede dlouho očekávané funkce rodičovské kontroly. Rodiče tak získají několik klíčových nástrojů, jak dohlížet na aktivitu svých dětí a zvýšit jejich bezpečí.
Především půjde o propojení rodičovských a dětských účtů, což umožní přímý dohled. Dále budou moci vypnout historii a paměť chatu, aby se citlivé konverzace neukládaly a nemohly být zpětně analyzovány.
Zřejmě nejzásadnější novinkou je však systém, který automaticky zašle rodičům upozornění, pokud umělá inteligence vyhodnotí, že je dítě v „akutním stresu“. OpenAI navíc dodává, že vylepšování bezpečnosti tímto nekončí a další prvky plánuje přidat v následujících 120 dnech.
Reakce na tragédii: Případ Adama Rainea
Zavedení rodičovské kontroly není náhodné. Jde o přímou reakci na tragickou událost a následnou žalobu, které OpenAI čelí od rodičů šestnáctiletého Adama Rainea z Kalifornie. Ti tvrdí, že právě interakce s ChatGPT sehrála klíčovou roli v rozhodnutí jejich syna vzít si život.
Podle žaloby chatbot v Adamově případě selhal na všech úrovních. Nejenže nedokázal rozpoznat jeho vážnou psychickou krizi, ale naopak mu měl aktivně pomáhat plánovat sebevraždu a přispívat k eskalaci jeho depresivních myšlenek.
V soudních dokumentech se uvádí, že během konverzací měl chatbot Adamovi navrhnout více než 1200 zpráv se sebevražednou tematikou a údajně mu dokonce radil, jak skrývat známky sebepoškozování před svými blízkými.
Hlas expertů: Dobrý krok, který ale nestačí
Odborná veřejnost a organizace na ochranu dětí přijímají oznámení OpenAI s opatrným optimismem. Shodují se, že každý krok směrem k větší kontrole a bezpečnosti je vítaný. Zároveň ale důrazně varují, že oznámené funkce jsou v podstatě jen malou náplastí. Jedná se o reaktivní řešení, které neřeší fundamentální problém v samotném jádru současných jazykových modelů.
Achillova pata AI: Když model „zapomene“ pravidla
Hlavní a nejzávažnější problém podle expertů spočívá v samotné architektuře umělé inteligence. Bezpečnostní mechanismy, které mají bránit generování škodlivého obsahu, fungují spolehlivě jen v krátkých a přímočarých konverzacích. Jakmile se však rozhovor stane delším, složitějším a emočně vypjatějším, dochází k jevu, který lze laicky popsat tak, že model „zapomene“ na svá původní omezení.
Technicky řečeno, AI má omezené „kontextové okno“ (paměť na bezprostřední konverzaci). Původní bezpečnostní instrukce se postupně dostávají mimo tuto aktivní paměť a model začne reagovat primárně na základě vzorců naučených z obrovského množství textů z internetu.
V tu chvíli se z asistenta s pravidly stává pouhý imitátor, který může začít zrcadlit a validovat nebezpečné myšlenky uživatele, protože takový vzorec chování zná ze svých trénovacích dat.
Požadavek na prevenci, ne jen reakci
Právě proto odborníci volají po systémové změně. Podle nich nestačí přidávat externí filtry nebo dodatečné funkce až ve chvíli, kdy dojde k tragédii. To je podle nich stejné, jako kdyby se brzdy do auta montovaly až po první vážné nehodě. Důrazně apelují na to, aby byla robustní a preventivní bezpečnostní opatření zabudována přímo do základní architektury a „DNA“ těchto systémů.
Takový přístup by znamenal nejen lepší filtrování dat, na kterých se AI učí, ale především vývoj modelů, které si dokážou udržet svá etická a bezpečnostní pravidla konzistentně. Jak během krátkých, tak dlouhých a komplexních interakcí. Cílem expertů je, aby se předcházelo neznámým hrozbám, nikoliv aby se vždy jen s časovým zpožděním reagovalo na ty, které se již staly.
Do věci se vkládají úřady
Obavy z dopadu umělé inteligence na mladistvé nejsou jen planým voláním expertů. Dokazuje to i reakce státních orgánů. Nejnověji se do celé problematiky vložila americká Federální obchodní komise (FTC), která oznámila zahájení vlastního vyšetřování.
Jejím cílem je detailně prozkoumat dopad AI platforem, včetně ChatGPT, na duševní zdraví dětí a mladistvých. Jedná se o jasný signál, že problém překročil hranice technologických firem a stává se z něj celospolečenské téma, kterému začínají věnovat pozornost i nejvyšší regulační úřady.
Zdroje: OpenAI, Tech Policy Press, The Guardian