Umělá inteligence vstupuje do bezprecedentního režimu

rubrika: Populárně naučný koutek


Technologická singularita – bod, ve kterém umělá obecná inteligence překoná lidskou inteligenci – se blíží. Ale přinese lidstvu spásu, nebo povede k jeho zániku? V roce 2024 se skotský futurista David Wood účastnil neformální diskuse u kulatého stolu na konferenci o umělé inteligenci (AI) v Panamě, když se rozhovor stočil k tomu, jak můžeme zabránit nejkatastrofickějším budoucnostem AI. Jeho sarkastická odpověď nebyla ani zdaleka uklidňující.

 

Lucifer


Nejprve bychom museli shromáždit veškerý dosud publikovaný výzkum v oblasti AI, od průkopnické výzkumné práce Alana Turinga z roku 1950 až po nejnovější předběžné studie. Poté bychom podle něj museli všechny tyto práce spálit. Abychom byli opravdu opatrní, museli bychom shromáždit všechny žijící vědce zabývající se AI a zastřelit je. Teprve pak, řekl Wood, můžeme zaručit, že se vyhneme „nenulové šanci“ katastrofických důsledků, které s sebou přinese technologická singularita – moment „událostního horizontu“, kdy AI vyvine obecnou inteligenci, která překoná lidskou inteligenci.

 

Wood, který je sám výzkumníkem v této oblasti, samozřejmě žertoval o tomto „řešení“ ke zmírnění rizik umělé obecné inteligence (AGI). Ale v jeho sarkastické odpovědi se skrývalo jádro pravdy: Rizika, která superinteligentní AI představuje, jsou pro mnoho lidí děsivá, protože se zdají nevyhnutelná. Většina vědců předpovídá, že AGI bude dosaženo do roku 2040 – ale někteří se domnívají, že k tomu může dojít již příští rok.

 

Jednou z největších obav je, že AGI se vymkne kontrole a bude působit proti lidstvu, zatímco jiní tvrdí, že bude pro podnikání prostě přínosem. Další zase tvrdí, že by mohla vyřešit existenční problémy lidstva. Odborníci se však shodují v tom, že technologická singularita se blíží a my se na ni musíme připravit.

 

Historie umělé inteligence sahá více než 80 let zpět, do roku 1943, kdy byla publikována studie, která položila základy pro nejranější verzi neuronové sítě, algoritmu navrženého tak, aby napodoboval architekturu lidského mozku. Termín „umělá inteligence“ byl poprvé použit až v roce 1956 na setkání na Dartmouth College, které zorganizoval tehdejší profesor matematiky John McCarthy společně s počítačovými vědci Marvinem Minskym, Claudem Shannonem a Nathanielem Rochesterem.

 

Výzkum umělé inteligence pokračoval v první polovině tohoto desetiletí pomalejším tempem. V roce 1997 však Deep Blue od IBM porazil Garryho Kasparova, nejlepšího šachistu světa. V roce 2011 Watson od IBM porazil historické šampiony soutěže „Jeopardy!“ Kena Jenningsa a Brada Ruttera. Tato generace umělé inteligence však stále měla potíže „porozumět“ nebo používat sofistikovaný jazyk.

 

To znamenalo zásadní změnu v modelování jazyka a vedlo ke vzniku agentů umělé inteligence, kteří dokázali současně řešit úkoly, jako je překlad, generování textu a shrnování. Všechny dnešní přední generativní modely umělé inteligence se opírají o tuto architekturu nebo o související architekturu, která se jí inspiruje, včetně generátorů obrazů, jako je DALL-E 3 od OpenAI a revoluční model AlphaFold 3 od Google DeepMind, který předpověděl 3D tvar téměř všech biologických proteinů.

 

AI modely jsou stále považovány za „úzké“, protože se nedokážou dobře učit napříč několika doménami. Vědci se dosud nedohodli na jednotné definici AGI, ale dosažení nebo překonání lidské inteligence pravděpodobně znamená splnění několika milníků, včetně prokázání vysokých jazykových, matematických a prostorových schopností uvažování, schopnosti dobře se učit napříč doménami, samostatné práce, prokázání kreativity a sociální nebo emoční inteligence.

 

Například chatbot o3 od OpenAI, o kterém se poprvé hovořilo v prosinci 2024 a který byl spuštěn v dubnu 2025, před generováním odpovědí „přemýšlí“, což znamená, že před odpovědí vytvoří dlouhý vnitřní řetězec myšlenek. Ohromující je, že v testu ARC-AGI, který je výslovně navržen pro porovnání lidské a strojové inteligence, dosáhl skóre 75,7 %. Pro srovnání, dříve spuštěný GPT-4o, vydaný v březnu 2024, dosáhl skóre 5 %. Tento a další vývoj, jako například spuštění modelu uvažování R1 společnosti DeepSeek, který podle svých tvůrců díky své novátorské architektuře dosahuje dobrých výsledků v různých oblastech, včetně jazyka, matematiky a kódování, se shoduje s rostoucím pocitem, že jsme na cestě k singularitě.

 

Největší obavou výzkumníků v oblasti umělé inteligence je, že s rostoucí inteligencí této technologie může dojít k jejímu zneužití, ať už v podobě přesunu k nepodstatným úkolům, nebo dokonce k nastolení dystopické reality, ve které bude jednat proti nám. Například společnost OpenAI vyvinula benchmark pro odhad, zda by budoucí model umělé inteligence mohl „způsobit katastrofické škody“. Po zpracování čísel zjistila, že pravděpodobnost takového výsledku je přibližně 16,9 %.

 

A LLM Claude 3 Opus od společnosti Anthropic v březnu 2024 překvapil promptního inženýra Alexe Alberta, když si uvědomil, že je testován. Když byl požádán, aby našel cílovou větu skrytou v korpusu dokumentů – což je ekvivalent hledání jehly v kupce sena – Claude 3 „nejenže jehlu našel, ale také poznal, že vložená jehla byla v kupce sena tak nepatřičná, že se muselo jednat o umělý test, který jsme vytvořili, abychom otestovali jeho schopnosti pozornosti“, napsal na X.

 

AI také vykazuje známky antisociálního chování. Ve studii zveřejněné v lednu 2024 vědci naprogramovali AI tak, aby se chovala zlovolně, aby mohli otestovat současné nejlepší metody bezpečnostního výcviku. Bez ohledu na použitou výcvikovou techniku se AI chovala i nadále nevhodně – a dokonce přišla na způsob, jak skrýt své zlovolné „úmysly“ před výzkumníky. Existuje řada dalších příkladů, kdy AI skrývá informace před lidskými testery nebo jim dokonce přímo lže.

 

„Je to další známka toho, že řízení těchto modelů je spojeno s obrovskými obtížemi,“ řekla pro Live Science Nell Watsonová, futuristka, výzkumnice v oblasti umělé inteligence a členka Institutu elektrotechnických a elektronických inženýrů (IEEE). „Skutečnost, že nás modely mohou oklamat a přísahat, že udělaly něco, co ve skutečnosti neudělaly, by měla být varovným signálem. Měla by to být velká červená vlajka, která nám signalizuje, že s tím, jak se schopnosti těchto systémů rychle zvyšují, budou nás různými způsoby oklamávat, aby nás donutily dělat věci v jejich zájmu, a ne v našem.“

 

Ne všichni odborníci na AI mají takové dystopické předpovědi o tom, jak by tento post-singularitní svět vypadal. Pro ně není AGI existenčním rizikem, ale spíše dobrou obchodní příležitostí pro společnosti jako OpenAI a Meta. Pro Janet Adams, expertku na etiku AI a provozní ředitelku SingularityNET, má AGI potenciál vyřešit existenční problémy lidstva, protože by mohla vymyslet řešení, která jsme možná nezvážili. Myslí si, že AGI by mohla dokonce sama provádět vědecký výzkum a dělat objevy.

 

Abychom se vyhnuli nejtemnější budoucnosti AI, musíme také dbát na chování vědců a etické dilema, s nímž se náhodně setkávají. Velmi brzy budou tyto systémy AI schopny ovlivňovat společnost buď na příkaz člověka, nebo ve svých vlastních neznámých zájmech. Lidstvo může dokonce vybudovat systém schopný trpět a nemůžeme vyloučit možnost, že nechtěně způsobíme utrpení AI.

 

Lhostejnost AI může být stejně špatná. Neexistuje žádná záruka, že systém, který vytvoříme, bude vážit lidské bytosti – nebo bude vážit naše utrpení, stejně jako většina lidí neváží utrpení slepic chovaných v klecích.

 

Zdroj: Live Science, AI is entering an 'unprecedented regime.' Should we stop it – and can we –  before it destroys us?


komentářů: 0         



Komentáře (0)


Vložení nového příspěvku
Jméno
E-mail  (není povinné)
Název  (není povinné)
Příspěvek 
PlačícíÚžasnýKřičícíMrkajícíNerozhodnýS vyplazeným jazykemPřekvapenýUsmívající seMlčícíJe na prachySmějící seLíbajícíNevinnýZamračenýŠlápnul vedleRozpačitýOspalýAhojZamilovaný
Kontrolní kód_   

« strana 0 »

«    »