Umělá inteligence. Ilustrační snímek

Umělá inteligence. Ilustrační snímek | foto: DARPA

Revoluce v umělé inteligenci může být pro lidstvo hrozbou, tvrdí expert

  • 155
Až se lidstvo vypořádá se současnými hrozbami, bude muset překonat další existenční výzvu. Umělá inteligence, na které se v různých koutech světa pracuje, může v budoucnu bez předem daných právních pravidel a regulací lidstvo ohrozit, tvrdí bezpečnostní analytik Luděk Jiráček z Asociace pro mezinárodní otázky.

Je umělá inteligence (anglicky Artificial Intelligence - AI, pozn. red.) potenciální hrozbou budoucnosti?
AI patří mezi další revoluční technologie, které bude možné využít v mnoha oborech ve prospěch lidstva. Zároveň však může být i jednou z nejzávažnějších hrozeb.

Proč, vždyť vlastně ještě v pravém slova smyslu neexistuje?
AI má nyní nepředstavitelný potenciál a zároveň konkurenční výhodu. To si hlavní aktéři mezinárodních vztahů samozřejmě uvědomují, což lze vidět i na výrazných investicích do tohoto oboru. Je však pravdou, že v současné době nejsou jednotlivé systémy plně automatizované a jejich dovednosti se nedokážou ani zdaleka srovnávat s fungováním mozku člověka. Na druhou stranu je AI stále více v praxi využívaná a roboti dokážou řešit komplexnější úkoly, což může z dlouhodobého hlediska vést až k ohrožení naší existence.

Ohrožení lidské existence v jakém smyslu? Myslíte, že by se robot s umělou inteligencí vymkl kontrole? Vždyť přeci dogmatickým prvním zákonem robotiky podle Isaca Asimova má být, že robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo...
Na tuto problematiku je nutné se podívat z širšího hlediska - například, jak nás již nyní ovlivňují moderní technologie, respektive jak jim důvěřujeme a jak jsme na nich závislí. V praxi jim totiž předáváme více pravomocí, a to je zásadní nebezpečí...

Dochází v přímém přenosu k degradaci našich schopností a dovedností. Jestli nám tedy jakákoliv technologie ublíží, bude to pouze naší vinou, jelikož ji tak naprogramujeme a budeme s výstupními daty neadekvátně pracovat. Dalším problémem je, jakou roli bude mít člověk na této planetě a jak tuto problematiku uchopíme legislativně.

Připadá mi, že svět vlastně ještě ani neví, čeho se bát a zda se bát?
Je to přesně tak, jelikož zatím nevidíme hmatatelné následky. Mnoho předních vědců po celém světě se však snaží informovat veřejnost o možných následcích, respektive se snaží vysvětlovat problémy spojené s předáváním stále více pravomocí počítačům a strojům (např. Future of Life Institute).

Na druhou stranu je nutné říci, že se také již desítky let obáváme možné jaderné války. Avšak díky nukleárním zbraním doposud nevypukla další světová válka. Všichni totiž vědí, že by takováto válka mohla znamenat konec lidské existence.

Asi se shodneme, že umělá inteligence především ve zbraňových, ale i bezpečnostních systémech, má nepředstavitelný potenciál. Máte nějakou představu, jak by mohla vypadat v tomto ohledu třeba bojová operace budoucnosti?
Bojové operace budou probíhat stále ve všech současných operačních oblastech - země, voda, vzduch, vesmír a kybernetický prostor. Nicméně oproti dosavadním konfliktům se budou více využívat poloautonomní systémy a bude stále více viditelné propojování schopností člověka a robotů. To můžeme již nyní vidět i při současných vojenských operacích, kde mají například bezpilotní letouny stále větší význam. Co přijde poté, lze jen těžko předvídat...

Jistě, už teď je to jako z románů či povídek, když si uvědomíte, že vám na internetu objednané tričko přinese na zahradu zásilkový dron.
Vždy je to otázka nákladů a výnosů. Robotizace a automatizace systémů se bude úměrně rozšiřovat s klesajícími náklady na instalaci takovýchto systémů a se zvyšováním jejich efektivity. To lze mimo jiné vidět v mnoha výrobních závodech. Nicméně možnost využití AI v obranném průmyslu představuje pro jakéhokoliv aktéra nepředstavitelnou konkurenční výhodu.

ANALÝZA: Aplikace mezinárodního práva a regulace autonomních zbraňových systémů

Podle šéfa britské zbrojovky BAE Rogera Carra se v současnosti snaží vyvíjet autonomní roboty s cílem „zabíjet“ ve více než 40 zemích. Lze vůbec nastavit nějaké právní rámce a pravidla pro použití takových zbraňových systémů?
Pro zavedení legislativních opatření je nutné nejprve vědět, jak by daný problém měl být regulován. To v současné době nevíme. K tomu, aby vznikla určitá shoda pro zavedení univerzálně a právně závazné mezinárodní smlouvy, je také nutná určitá důvěra mezi aktéry v mezinárodních vztazích. Ty jsou však založeny na nedůvěře a každý, včetně soukromých společností, bude mít zájem si zachovat zmíněnou konkurenční výhodu. Ten, kdo tvrdí, že něco jako národní zájmy či suverenita jsou přeceněné, se šeredně mýlí.

Co se týče možné regulace během vývoje těchto systémů, ty jsou také velmi problematické. Mezi hlavní důvody můžeme zařadit značnou diskrétnost a utajovanost jednotlivých výzkumných fází vývoje a rychlý vývoj nových technologií, kvůli kterým by musely být kontrolní mechanismy pravidelně upravovány a byly by tedy i finančně velmi nákladné. Odpověď tedy bohužel zní: nelze.

Existuje nějaká možnost zneužití vyvíjených autonomních nebo poloautonomních robotů třeba teroristy? Když se podíváme na boje v iráckém Mosulu, tam si například islamisté velmi rychle osvojili boj s pomocí malých dronů, které používali k sebevražedným atentátům. Na dálku, nepozorovaně a překvapivě.
Osvojit a zároveň zneužít lze vše, co je možné alespoň částečně ovládat. Jak je však možné si osvojit něco, co určitým způsobem nemůžete ovládat či dokonce ani deaktivovat?

, natoaktual.cz

Nejlepší videa na Revue