Pokud nebude umělá inteligence pod kontrolou, čekejte orwellovskou budoucnost

rubrika: Populárně naučný koutek


Umělá inteligence – Artificial intelligece (AI) – je schopnost strojů napodobovat lidské schopnosti, jako je uvažování, učení se, plánování nebo kreativita. Viz třeba: Co je umělá inteligence a jak ji využíváme?; Umělá inteligence (Wikipedie); Umělá inteligence a kosmologie (Aldebaran). Může nám však být nebezpečná, pokud ji neudržíme pod kontrolou, jak naznačil šéf Microsoftu. Následující. Následující text představuje poupravené výňatky z článku Expect an Orwellian future if AI isn't kept in check, Microsoft exec says, který jsem našel na Live Science.

 

Lucifer


Prezident Microsoftu Brad Smith 26. května minulého roku ve zpravodajském pořadu BBC "Panorama" upozornil na potenciální nebezpečí umělé inteligence a na závod mezi Spojenými státy a Čínou ve vývoji této technologie. Varování přišlo zhruba měsíc poté, co Evropská unie zveřejnila návrh nařízení, které se snaží stanovit limity pro využívání umělé inteligence. Ve Spojených státech, kde se legislativa do značné míry zaměřuje na omezení regulace a podporu AI pro účely národní bezpečnosti, je podobných snah málo. „Neustále si připomínám poučky George Orwella z jeho knihy '1984',“ řekl Smith. "Základní příběh byl o vládě, která vidí vše, co každý dělá, a slyší vše, co každý neustále říká. No, v roce 1984 se to nenaplnilo, ale pokud si nedáme pozor, mohlo by se to naplnit v roce 2024."

 

Umělá inteligence je nesmírně výkonný přístup, který byl aplikován na vše od základní matematické teorie až po simulace raného vesmíru, ale podle odborníků může být nebezpečný při aplikaci na sociální data. Data o lidech jsou předinstalována s lidskými předsudky. Například nedávná studie v časopise JAMA Psychiatry zjistila, že algoritmy určené k předpovídání rizika sebevraždy fungovaly mnohem hůře u černochů a amerických indiánů/laskánských domorodců než u bělochů, částečně proto, že v lékařském systému bylo méně barevných pacientů, a částečně proto, že barevní pacienti měli menší pravděpodobnost, že se jim dostane léčby a příslušné diagnózy, což znamená, že původní údaje byly zkreslené a podhodnocovaly jejich riziko.

 

Předpojatosti se nikdy nelze zcela vyhnout, ale lze ji řešit, uvedl Bernhardt Trout, profesor chemického inženýrství na Massachusettském technologickém institutu, který vede odborný kurz o umělé inteligenci a etice. „Zneužití umělé inteligence je na druhou stranu možná náročnější,“ řekl Trout. To, jak je umělá inteligence využívána, není jen technická záležitost, ale stejně tak politická a morální otázka. A tyto hodnoty se v jednotlivých zemích značně liší.

 

„Rozpoznávání obličeje je v některých ohledech mimořádně mocný nástroj, který umožňuje dělat dobré věci, ale pokud chcete sledovat každého na ulici, pokud chcete vidět každého, kdo se objeví na demonstraci, můžete AI nasadit,“ řekl Smith BBC. A to vidíme v některých částech světa.

 

Čína již začala využívat technologie umělé inteligence jak všedními, tak znepokojivými způsoby. Například rozpoznávání obličeje se v některých městech používá místo jízdenek v autobusech a vlacích. To však také znamená, že vláda má přístup k rozsáhlým údajům o pohybu a interakcích občanů, zjistila "Panorama" BBC. Advokátní skupina IPVM se sídlem v USA, která se zaměřuje na etiku kamerového dohledu, našla dokumenty naznačující, že v Číně se plánuje vytvoření systému nazvaného „Jeden člověk, jedna složka“, který by shromažďoval aktivity, vztahy a politické přesvědčení každého obyvatele ve vládní složce.

 

Orwellův slavný román "1984" popisuje společnost, v níž vláda sleduje občany prostřednictvím "telekranů", a to i doma. Orwell si však nepředstavoval možnosti, které sledování rozšíří umělá inteligence.

 

V autonomní oblasti Sin-ťiang, kde ujgurská menšina obviňuje čínskou vládu z mučení a kulturní genocidy, se umělá inteligence používá ke sledování lidí a dokonce i k posuzování jejich viny při zatýkání a výslechu, zjistila BBC. Je to příklad technologie, která usnadňuje rozsáhlé porušování lidských práv: Rada pro zahraniční vztahy odhaduje, že od roku 2017 byl milion Ujgurů násilně zadržován v "převýchovných" táborech, obvykle bez jakéhokoli obvinění z trestného činu nebo legální možnosti útěku.

 

Potenciální regulace umělé inteligence ze strany EU by zakázala systémy, které se snaží obejít svobodnou vůli uživatelů, nebo systémy, které umožňují jakýkoli druh "sociálního bodování" ze strany vlády. Ostatní typy aplikací jsou považovány za "vysoce rizikové" a musí splňovat požadavky na transparentnost, bezpečnost a dohled, aby mohly být uvedeny na trh. Patří mezi ně například umělá inteligence pro kritickou infrastrukturu, prosazování práva, hraniční kontroly a biometrická identifikace, jako jsou systémy identifikace obličeje nebo hlasu. Ostatní systémy, jako jsou chatboti pro obsluhu zákazníků nebo videohry s umělou inteligencí, jsou považovány za nízkorizikové a nepodléhají přísné kontrole.

 

Zájem federální vlády USA o umělou inteligenci se naopak z velké části soustředí na podporu vývoje umělé inteligence pro národní bezpečnost a vojenské účely. Toto zaměření občas vede ke kontroverzím. V roce 2018 například společnost Google zrušila svůj projekt Maven, smlouvu s Pentagonem, která měla automaticky analyzovat video pořízené vojenskými letadly a drony. Společnost argumentovala tím, že cílem bylo pouze označit objekty k přezkoumání člověkem, ale kritici se obávali, že by tato technologie mohla být použita k automatickému zaměření osob a míst pro údery dronů. Whistlebloweři v rámci společnosti Google tento projekt vynesli na světlo a nakonec vedli k dostatečně silnému tlaku veřejnosti, aby společnost tuto snahu odvolala.

 

Nicméně Pentagon nyní vynakládá více než 1 miliardu dolarů ročně na zakázky v oblasti umělé inteligence a vojenské a národněbezpečnostní aplikace strojového učení jsou nevyhnutelné vzhledem k nadšení Číny pro dosažení nadvlády v oblasti umělé inteligence.

 

Mezitím jsou snahy o omezení umělé inteligence v tuzemsku vedeny státními a místními vládami. Největší okres státu Washington, King County, právě zakázal vládní používání softwaru pro rozpoznávání obličejů. Je to první okres v USA, který tak učinil, ačkoli stejný krok učinilo v roce 2019 město San Francisco, následované několika dalšími městy.

 

Již se objevily případy, kdy software pro rozpoznávání obličejů vedl k falešnému zatčení. V červnu 2020 byl v Detroitu zatčen černoch a 30 hodin zadržován ve vazbě, protože ho algoritmus falešně identifikoval jako podezřelého z krádeže v obchodě. Studie Národního institutu pro standardy a technologie z roku 2019 zjistila, že software vrací více falešných shod u černochů a Asiatů ve srovnání s bělochy, což znamená, že tato technologie pravděpodobně prohlubuje rozdíly v policejní práci s barevnými.


komentářů: 2         



Komentáře (2)


Vložení nového příspěvku
Jméno
E-mail  (není povinné)
Název  (není povinné)
Příspěvek 
PlačícíÚžasnýKřičícíMrkajícíNerozhodnýS vyplazeným jazykemPřekvapenýUsmívající seMlčícíJe na prachySmějící seLíbajícíNevinnýZamračenýŠlápnul vedleRozpačitýOspalýAhojZamilovaný
Kontrolní kód_   

« strana 1 »

Lucifer
2
Lucifer * 07.03.2022, 22:47:25
prof. P. Kulhánek: Hledání teorie všeho

https://www.youtube.com/watch?v=4fityhz_kDs

1
xyz (neregistrovaný) 07.03.2022, 06:38:44
Na cekani na 'orwellovskou budoucnost' je uz trochu pozde. Ta uz probiha hodne dlouho, muzeme ji pozorovat v primem prenosu.

«     1     »