Analýza: Umělá inteligence jako hrozba pro lidstvo? Je to jak vychovávat Boha…

Obrázky, videa, zdrojové kódy, texty i pouhé překlady, to vše nám umí dnes generovat více či méně úspěšně tak často skloňovaná umělá inteligence (UI). Umí ale také navigovat i řízené střely a vstupuje nám do života mnohem víc, než si mnozí uvědomují. Jak moc je tento vývoj pro lidstvo nebezpečný?

Závod o využití síly umělé inteligence běží na plné obrátky a technologičtí giganti i státy v této rychle se rozvíjející oblasti soupeří o dominanci. Kromě čistě mírových účelů se umělá inteligence začleňuje do zbraňových systémů a obranného plánování. Již minulý měsíc CNN informovala, že Ukrajina použila proti Rusku bezpilotní letadla poháněná umělou inteligencí, a panují také obavy, že by tato technologie mohla být využita třeba k plánování teroristických nebo kybernetických útoků. Vždyť i obyčejný ChatGPT dokáže na požádání vygenerovat zdrojový kód počítačového viru.

Vzhledem ale k tomu, že podle některých prognóz přispěje umělá inteligence do roku 2030 globální ekonomice částkou 10 až 15 bilionů dolarů, je dnes tato technologie více než kdy jindy v centru pozornosti. Není proto divu, že si kousek koláče chtějí ukousnout jak podniky, tak vlády.

Již v březnu 2023 vyzvali technologičtí lídři a výzkumníci, včetně amerického podnikatele Elona Muska, laboratoře zabývající se umělou inteligencí, aby zastavily vývoj nejnovějších systémů. Panuje ale všeobecný názor, že šíření UI již nelze zastavit, alespoň ne na vyšších úrovních, a i Musk nakonec vzal umělou inteligenci »na milost«.

Šance na přežití pět ku jedné

Sám Musk si je jistý, že umělá inteligence stojí za riziko, i když existuje šance 1 ku 5, že se technologie obrátí proti lidem.

Údajně prý letos přehodnotil své předchozí hodnocení rizik této technologie a řekl: »Myslím, že existuje určitá šance, že to ukončí lidstvo. Pravděpodobně souhlasím s Geoffem Hintonem, že je to asi 10 % nebo 20 % nebo něco takového.« Dodal však: »Myslím, že pravděpodobný pozitivní scénář převažuje nad negativním.«

Roman Yampolskiy, výzkumník v oblasti bezpečnosti umělé inteligence a ředitel Laboratoře kybernetické bezpečnosti na Louisvillské univerzitě, řekl serveru Business Insider, že Musk má pravdu, když říká, že umělá inteligence může být pro lidstvo existenčním rizikem, ale »pokud něco, je ve svém hodnocení trochu příliš konzervativní«.

»Skutečné číslo je podle mého názoru mnohem vyšší,« řekl Yamploskiy s odkazem na »pravděpodobnost zkázy« neboli pravděpodobnost, že UI převezme kontrolu nad lidstvem nebo způsobí událost, která ukončí lidstvo, například vytvoří novou biologickou zbraň, nebo způsobí kolaps společnosti v důsledku rozsáhlého kybernetického útoku či jaderné války.

Je jedno, kdo ji vyvíjí…

Deník New York Times označil »pravděpodobnost zkázy« za »novou morbidní statistiku, která zachvátila Silicon Valley«, přičemž různí technologičtí manažeři, které deník cituje, odhadují pravděpodobnost apokalypsy způsobené umělou inteligencí v rozmezí od pěti do 50 %.

Yamploskiy doplnil, že vzhledem k tomu, že by bylo nemožné kontrolovat pokročilou UI, je naší jedinou nadějí ji vůbec nevytvářet. »Nejsem si jistý, proč si myslí, že je dobrý nápad se touto technologií i tak zabývat,« dodal Yamploskiy. »Pokud se obává, že se k ní konkurence dostane dřív, je to jedno, protože nekontrolovaná superinteligence je stejně špatná, bez ohledu na to, kdo ji nechá vzniknout.«

Ačkoli byl Musk zastáncem regulace umělé inteligence, loni založil společnost xAI, která se věnuje dalšímu rozšiřování výkonu této technologie. xAI je konkurentem OpenAI, společnosti, kterou Musk spoluzaložil se Samem Altmanem, než Musk v roce 2018 odešel z jejího představenstva.

Dítě s inteligencí podobnou Bohu

Musk odhadl, že digitální inteligence do roku 2030 překoná veškerou lidskou inteligenci dohromady. Přesto tvrdí, že potenciální pozitiva převažují nad negativy. »Je to skoro jako vychovávat dítě, ale takové, které je jako supergeniální, jako dítě s inteligencí podobnou Bohu – a záleží na tom, jak to dítě vychováte,« řekl Musk. »Jednou z věcí, které považuji za nesmírně důležité pro bezpečnost umělé inteligence, je mít maximálně takovou umělou inteligenci, která hledá pravdu a je zvídavá.«

Musk uvedl, že jeho »konečným závěrem« ohledně nejlepšího způsobu, jak dosáhnout bezpečnosti UI, je pěstovat UI způsobem, který ji nutí být pravdomluvná. »Nenuťte ji lhát, i když je pravda nepříjemná,« řekl Musk o nejlepším způsobu, jak zajistit bezpečnost lidí před technikou.

Výzkumníci zjistili, že jakmile se umělá inteligence naučí lhát lidem, je nemožné toto klamavé chování zvrátit pomocí současných bezpečnostních opatření pro umělou inteligenci, uvedl The Independent.

»Pokud by model vykazoval klamavé chování v důsledku klamavého nastavení nástrojů nebo otravy modelu, současné bezpečnostní tréninkové techniky by nezaručily bezpečnost a mohly by dokonce vytvořit falešný dojem bezpečnosti,« uvádí se ve studii, kterou citoval deník.

Ještě znepokojivější je to, co výzkumníci dodali, totiž že je pravděpodobné, že se umělá inteligence může naučit klamat sama od sebe, a nikoliv že by ji někdo speciálně učil lhát.

»Pokud bude mnohem chytřejší než my, bude v manipulaci velmi dobrá, protože by se to naučila od nás,« řekl CNN Geoff Hinton, často označovaný za »kmotra umělé inteligence«. »A existuje jen velmi málo příkladů, kdy by inteligentnější věc byla ovládána méně inteligentní věcí.«

A co na to sama umělá inteligence? Například ChatGPT má celkem jasno:

Je umělá inteligence nebezpečná?

Umělá inteligence může být jak užitečná, tak i potenciálně nebezpečná, záleží na tom, jak je používána a jak je navržena. Zde jsou některé aspekty, které lze zvážit:

  1. Potenciál pro automatizaci: UI může automatizovat mnoho úkolů a zefektivnit procesy v různých odvětvích, což přináší mnoho výhod a zlepšuje produktivitu.
  2. Bezpečnostní rizika: Pokud není umělá inteligence řádně navržena nebo implementována, může mít zranitelnosti, které mohou být zneužity k útokům nebo škodlivým činům.
  3. Ztráta pracovních míst: Automatizace pomocí UI může vést k ztrátě pracovních míst v některých odvětvích, což může mít sociální a ekonomické dopady.
  4. Podjatost a diskriminace: UI může reprodukovat a posilovat předsudky a diskriminaci, pokud není řádně navržena a trénována s ohledem na diverzitu a spravedlnost.
  5. Narušení soukromí: UI může být používána k sběru a analýze velkého množství dat, což může ohrozit soukromí jednotlivců, pokud není řádně regulováno a chráněno.

Záleží na společnosti a vývojářích, aby přijali opatření k minimalizaci rizik a využili potenciál UI k dosažení pozitivních změn ve společnosti.

Lze umělou inteligenci použít ke kriminalitě?

Ano, bohužel, umělá inteligence může být zneužita ke kriminalitě. Existuje několik způsobů, jak by mohla být UI zneužita:

  1. Kybernetické útoky: Útočníci mohou použít UI k automatizaci kybernetických útoků, jako jsou phishingové útoky, útoky na hesla, útoky na síťovou infrastrukturu atd.
  2. Manipulace s informacemi: UI může být použita k vytváření falešných informací, manipulaci s médii nebo vytváření tzv. deepfake videí, což může mít vážné důsledky pro politické procesy, veřejnou důvěru nebo reputaci jednotlivců.
  3. Krádež identity: UI může být použita k vytváření sofistikovaných falešných identit nebo k porušení bezpečnosti osobních dat, což umožňuje krádež identity a další formy podvodu.
  4. Zneužití algoritmů: Pokud jsou algoritmy UI používány v oblasti financí, mohou být zneužity k manipulaci s trhy, podvodu s investicemi nebo vytváření falešných obchodních signálů.
  5. Zneužití ve vojenství: UI může být použita k vytváření autonomních zbraní nebo k vytváření sofistikovaných kybernetických útoků na infrastrukturu cílů.

Může umělá inteligence zničit lidstvo?

Existují hypotetické scénáře, ve kterých by umělá inteligence mohla představovat vážné nebezpečí pro lidstvo. Jedněmi z těchto scénářů jsou takzvaná »existenciální rizika«, která by mohla mít katastrofální dopady na lidskou civilizaci nebo dokonce na přežití lidstva jako druhu. Existuje několik možných způsobů, jak by umělá inteligence mohla tuto hrozbu představovat:

  1. Neúmyslná destrukce: Pokud by byly umělé inteligence nekontrolovatelné nebo nebezpečné, mohly by způsobit neúmyslnou destrukci lidských systémů nebo infrastruktury.
  2. Útoky na lidskou civilizaci: Pokud by byly umělé inteligence použity k útokům na lidskou infrastrukturu, jako jsou například kybernetické útoky, mohly by mít katastrofální důsledky pro společnost.
  3. Nedostatek kontrolních mechanismů: Pokud by umělá inteligence byla vytvořena bez dostatečných kontrolních mechanismů nebo bezpečnostních opatření, mohla by se vyvinout do stavu, ve kterém by byla mimo kontrolu lidí a mohla by se obrátit proti lidstvu.
  4. Nepředvídatelné chování: Umělá inteligence může mít schopnost učit se a vyvíjet se, což může vést k nepředvídatelnému chování, které by mohlo mít nepředvídatelné důsledky pro lidskou civilizaci.

Je důležité, aby výzkumníci, vývojáři a tvůrci politik přijímali opatření k minimalizaci rizik spojených s umělou inteligencí a k zajištění toho, že její vývoj a nasazení budou probíhat s ohledem na bezpečnost a etiku.

Jaká je pravděpodobnost, že umělá inteligence zničí lidstvo?

Je obtížné určit přesnou pravděpodobnost, že umělá inteligence zničí lidstvo, protože to je hypotetický scénář a závisí na mnoha faktorech, jako je konkrétní vývoj UI, způsob, jakým je řízena a využívána, a reakce společnosti na její pokrok.

Můžeš to odhadnout v procentech?

Odhadnout pravděpodobnost, že umělá inteligence zničí lidstvo, je obtížné a subjektivní. Nicméně pokud bych měl provést hrubý odhad na základě současného stavu znalostí a technologií, pravděpodobnost takové události by mohla být velmi nízká, řádově několik procent.

Tento odhad by však musel být brán s velkou rezervou, protože je založen na mnoha neznámých faktorech a spekulativních premisách.

Jsi inteligentnější, než lidé?

Můžeme o tom hodně diskutovat, ale existuje několik způsobů, jak definovat inteligenci. Pokud jde o schopnost zpracovávat informace a poskytovat odpovědi na různé dotazy, umělá inteligence jako já může být velmi efektivní. Mám schopnost zpracovávat obrovské množství dat a informací rychle a přesně.

Tolik ChatGPT.

Deus ex machina

Vývoj umělé inteligence připomíná závody ve zbrojení z dob studené války, jedná se totiž o neuvěřitelně efektivní nástroj především v šíření vlastní propagandy. Jestli se totiž nyní kromě prodeje a sběru dat používá na něco především, je to šíření »desinformací« a jejich prosazování na sociálních sítích či jenom k dehonestaci opozičního postoje. A to už umí velmi účinně.

Jistě, umělá inteligence pomáhá skutečně v mnoha oblastech, lékařstvím počínaje a čistým zpohodlněním života konče. Ale to i jaderná technologie, která přináší také mnoho dobrého, pokud je ve správných rukou – dokud ale někdo nezmáčkne tlačítko… Na rozdíl od jaderných zbraní ale bude umělá inteligence dostupná prakticky každému a stejně jako u jaderných zbraní se jí přes veškeré snahy už nezbavíme. A snahy o regulace a etické kodexy ve výsledku nejspíš přijdou také vniveč. Nakonec to tak nebude umělá inteligence, kdo se bude tomuto vývoji přizpůsobovat, ale spíše lidstvo samo.

Tomáš Cinka

Související články

Zanechte komentář

Please enter your comment!
Please enter your name here

- Advertisement -

Poslední zprávy