COOLna

….dědictví času a kultury…


Co čekat od umělé inteligence?

Ekonomický historik Niall Ferguson se v eseji pro agenturu Bloomberg pustil do tématu umělé inteligence (AI – Artificial Intelligence). Všímá si jednoho z nejcitovanějších lidí na světě, Eliezera Yudkowského, který do časopisu Time napsal, že „nejpravděpodobnější výsledek vytvoření nadlidsky chytré AI je, že doslova každý na Zemi zemře“.

Podle Yudkowského nejde o nějakou vzdálenou možnost, ale o úplnou samozřejmost. Pokud někdo vytvoří příliš silnou AI, očekávám, že zahyne každý člověk a záhy biologický život na Zemi, píše.

Yudkowsky vede Institut výzkumu strojové inteligence v kalifornském Berkeley a o umělé inteligenci publikoval řadu knih a studií. Už před lety například upozornil na to, že kdokoli může zadat umělé inteligenci úkol vyřešit globální oteplování a AI pak jen dojde k závěru, že optimální bude vyhubení druhu homo sapiens.

Podle Yudkowského se blížíme k osudové křižovatce, kdy „stvoříme AI, která je chytřejší než my, která nechce to, co chceme my, a které jsme vcelku ukradení. Výsledek souboje lidí s nadlidskou inteligencí bude naše vcelku přesvědčivá prohra“.

Dle Yudkowského může AI uniknout z internetu poměrně snadno, načež začne vytvářet „umělé formy života“. Nám pak vyhlásí třeba biologickou válku. Proto dle něj potřebujeme globální moratorium na výzkum AI.

Yudkowsky jde tedy mnohem dál než otevřený dopis sepsaný miliardářem Elonem Muskem (majitel automobilky Tesla, sociální sítě Twitter či společnosti SpaceX), Stevem Wozniakem (spoluzakladatel společnosti Apple) a dalšími desítkami tisíc signatářů, ve kterém žádají půlroční pauzu ve vývoji a výzkumu AI (text výzvy visí na webu Futureoflife).

Signatáři mají podobnou motivaci jako Yudkowsky – vývoj AI bez mezinárodní regulace dle nich skončí katastrofou. Yudkowsky je však přesvědčený o tom, že za půl roku se žádná mezinárodní regulace nestihne.

Samozřejmá analogie se nabízí s jadernými a biologickými zbraněmi. Od počátku lidé věděli, že jejich potenciál pro globální katastrofu je obrovský. Ale úsilí omezit šíření těchto zbraní trvalo dlouho a bylo jen částečně úspěšné.

V roce 1946 Američané v podobě Baruchova plánu navrhli internacionalizovat jaderný výzkum. Sověti to odmítli – a následovaly frenetické závody ve zbrojení. Později se podařilo omezit počet zemí, které mají jaderné zbraně, a nakonec i snížit arzenál supervelmocí.

Podobně ani konvence o biologických zbraních, schválená v roce 1975, jejich výzkum plně nezastavila; Sověti to nikdy úplně nevzdali a hazardní biologický výzkum stále probíhá v Číně.

Pokud má Yudkowsky pravdu a AI je stejně nebezpečná jako jaderné a biologické zbraně, tak šestiměsíční pauza ničeho nedosáhne. A volání po zákazu výzkumu a vývoje má zhruba obdobné šance jako Baruchův plán.

Jen za loňský rok činily globální privátní investice do AI asi 92 miliard dolarů. Soukromé firmy za stejný čas přišly s 32 modely strojového učení, zatímco akademické instituce vytvořily pouhé tři.

Kritici označují Yudkowského za novodobého ludditu (luddité v 19. století ničili stroje), jeho nápady na zastavení výzkumu prý omezí průlomy například v lékařské vědě a ve svém důsledku na to doplatí nemocní lidé.

Nicholas Thompson, ředitel firmy The Atlantic, s kritikou Yudkowského a jemu podobných ludditů souhlasí. Sám pro své děti nechal sepsat pohádku o soutěži mezi plyšáky. Medvídci prý vyhráli a potomci byli blažení. „Pojďme si všichni hrát a dělat tyto experimenty. Budeme vytvářet tyto hezké věci a po cestě se naučíme, jak s tím zacházet,“ napsal.

Ekonom, investor a vizionář Tyler Cowen pro Bloomberg uvedl: „Představme si, že se v roce 2006 uskutečnilo kolektivní rozhodnutí zastavit vývoj sociálních sítí na šest měsíců za účelem zkoumání jejich možné škodlivosti. Mnohé efekty sítí ale tehdy nebyly vůbec zřejmé a dosud jsou na jejich prospěšnost různé názory. A i kdyby si americké firmy daly půl roku pauzu, dají si ji i Číňané?“

Největší obránce neregulované AI je Reid Hoffman, zakladatel sociální sítě LinkedIn. Na toto téma sepsal celou knihu argumentů a pro zábavu mu v ní polovinu argumentů vygenerovala AI.

Problém s celou debatou je podle Fergusona dvojí. Za prvé jsou zastánci AI většinou zároveň investory do AI. Druhý problém dle něj spočívá v tom, že i když se připustí rizika s vytvořením inteligence chytřejší než člověk, tak protiargument je: důvěřujte nám, že to budeme dělat eticky, protože když nás budete omezovat, zmocní se vývoje zlí lidé, kteří ho nějak zneužijí.

Jako možná nejznepokojivější moment se jeví argument Reida Hoffmana, jak může být ChatGTP-4 využit v boji proti dezinformacím tím, že „zaplaví zóny výskytu dezinformací pravdou“. Jedna umělá inteligence tak bude bojovat s druhou.

Sám Hoffman připouští, že velké jazykové modely mohou vytvářet úplnou záplavu škodlivého obsahu včetně fake news, propagandy, triků, deepfake a podobně, která podlomí důvěru v demokracii a sociální kohezi. „Zaplavit pravdou“ – to by snad nevymyslel ani Orwell. A lidstvo tu záplavu nemusí přežít.

Jan Macháček



krematorium