Nečekal bych, že u přecházení se budou řešit lidské hodnoty.
Možná ne takto specificky, ale pro provoz autonomních vozidel a pro jakékoliv jiné fungování umělé inteligence s potenciálně závažným dopadem do reality budeme muset bránit tomu, čemu se říká AI value misalignment, což rádoby hravě překládám jako vymknutí hodnot umělé inteligence. Ať už se bavíme třeba o algoritmu sociálních sítí, který sbírá kvanta dat o mně jako o člověku, aby je následně využil k tomu, že maximalizuje můj čas strávený na platformě, nebo se bavíme třeba o AI, která vytváří bankovní skóring žadatelů o půjčku, chceme mít jistotu, že cíle, ke kterým umělou inteligenci používáme, jsou v souladu s hodnotami nás, lidí.
Je v pořádku, když YouTube v rámci dosažení svého primárního cíle maximalizace prokliků na reklamy nabízí divákům různá radikální videa, láká je do králičích nor plných konspirací a fake news? To je pěkný příklad vymknutí hodnot u Narrow AI systému. Chceme AI umožnit takové sociopatologické chování, které sice nikdo neplánoval, ale AI dospěla k závěru, že to je nejefektivnější cesta k cíli? Je v pořádku, když umělá inteligence znevýhodňuje etnické menšiny, protože se to tak naučila z trénovacích dat, kde se stejné diskriminace historicky dopouštěli sami lidé? Je v pořádku, že by autonomní vozidlo při nehodě záměrně srazilo chodce, aby ochránilo svého pasažéra? To jsou otázky, které před námi už teď vyvstávají a vyvstávat budou.
Co je tou druhou podoblastí samostatného vědomí?
Tou je právě vědomí ve smyslu takovém, jak ho kvalitativně prožívá člověk a jak spoluvytváří jeho osobnost a vnitřní svět. Může něco takového mít digitální bytost? To je velmi problematická a ošemetná věc, o které toho zatím víme málo. My totiž velmi málo víme také o lidském vědomí. Můžu říct jen to, že všechno, na co teď narazíte a prezentuje se to jako vědomá a svébytná digitální bytost, je naprostý podvod. Až takový, že mě to někdy rozčiluje.
Navíc absolutně nesmíme zaměňovat schopnost AI systému vést nějaký přirozeně vypadající dialog s tím, že by ten systém měl vlastnosti plnohodnotné obecné inteligence AGI či dokonce vlastní vědomí. Chatboti, virtuální asistenti jako Siri a další typy personifikované umělé inteligence jsou v dnešní době čistokrevná Potěmkinova vesnice. To ví každý, kdo něco takového vyzkoušel, protože jakýkoliv chatbot je dnes vyloženě špatný jak ve schopnosti skutečné kontextové orientovanosti, tak i přirozenosti lidské interakce.
Ví to i firmy, protože drtivá většina zákazníků se interakci s chatbotem nebo voicebotem snaží za každou cenu vyhnout. Digitální avataři a trenéři s umělou inteligencí jsou dnes na úrovni letušky, bez urážky prosím, která ukazuje v letadle, kde najdete pás a únikové východy, a na požádání vám ukáže toalety a přinese kafe. Ani to není úplně přirozená interakce.
Už tu ale byl případ, kdy si AI dokázala objednat stůl v restauraci, aniž by to člověk rozpoznal.
To ano, ale takový úkon nevyžaduje moc obecné inteligence, a už vůbec ne vědomí. Spíš jen naskriptovaný systém řízení dialogu, který na splnění takto jednoduchého cíle v drtivé většině případů bude stačit. Během těch pár sekund to nejspíš neodhalím, Turingův test porovnávající umělou inteligenci s člověkem by taková AI zčásti možná splnila, ale převedení diskuze na obecnou úroveň virtuální asistent prostě nezvládne. Současný výkon umělé inteligence v této oblasti je k uzoufání špatný, něco jako Císařovy nové šaty. Firmy se navzájem ujišťují v tom, že to funguje, že to je správně, vydávají fantastická prohlášení do médií, ale reálně je ta technologie zatím zcela nahá a nevidím pro ni slibnou krátkodobou budoucnost. Střednědobou a dlouhodobou určitě ano, ale nejdřív bude muset udělat AI zásadnější průlom v některých svých stavebních kamenech.
Kudy tedy vede cesta k takovým virtuálním asistentům, kteří budou „k něčemu”?
Musí se najít opravdu správný use case. A to není jednoduché. Myslím si však, že nejsme daleko od bodu, kdy skutečně užiteční konverzační agenti vzniknou. Už teď se objevují první vlaštovky. Vždy musí mít chirurgicky přesné zaměření na určitou tematickou doménu a vyřešení jasně definované zákaznické situace, třeba jako nahlášení poruchy zařízení a asistence s jeho restartem. Už třeba za pět let to dokážeme udělat tak, že to nebude ostuda. Systém si ale nesmí hrát na obecný dialog, ani že má vlastní osobnost nebo vědomí. Poznám, že to není člověk, ale to bude spíše správně.
Proč je to správně?
Už teď vzniká návrh zákonné AI regulace, který bude ukládat povinnost informovat uživatele o tom, že se baví s umělou inteligencí, a ne živým člověkem. Zároveň se ukazuje, že pokud se stroj příliš snaží napodobit člověka, je to pro uživatele spíš děsivá zkušenost. Takže jako lidi preferujeme stylizovanou formu komunikace se strojem, plechový hlas, vtipnou animovanou postavičku. Jde o koncept takzvaného uncanny valley, o kterém jsem dělal výzkum už v roce 2014. Ukázalo se, že lidé mají problém přijímat řečovou syntézu, která zní téměř přirozeně, ale jsou v ní drobné skoky v intonaci, které na určitá mozková centra působí jako červený hadr na býka. To stejné se děje i při vizuálním vnímání, náš mozek je dokonale vycvičený odhalovat přetvářku a podvody na základě nejdrobnějších nuancí.
(...)
Celý článek si můžete přečíst zde