Tehokkaiden tekoälyjärjestelmien tulevaisuuden maisema

Eric Schmidt, entinen Google:n toimitusjohtaja ja puheenjohtaja, on visioinut tulevaisuuden, jossa voimakkaimmat tekoälyjärjestelmät voisivat sijaita sotilastiloissa, joita pyörittää ydinenergia ja jotka on suojattu tiukoin turvatoimin. Hänen ennustuksensa kuvaa rajattuja mutta äärimmäisen voimakkaita tekoälyjärjestelmiä Yhdysvaltojen ja Kiinan hallinnassa, jotka saattavat olla kykeneviä autonomisiin toimintoihin.

Tämän teknologian kyvyt saattavat lopulta ylittää sen, mitä Yhdysvaltain hallitus haluaisi olevan saatavilla kansalaisilleen ilman nimenomaista suostumusta. Schmidt korosti näiden järjestelmien tärkeyttä pitää poissa kansainvälisten kilpailijoiden ulottuvilta. Tässä kehyksessä sotilastukikohdat voisivat toimia tekoälyjärjestelmien pyhättöinä, yhdistäen ydinenergian korkeaan turvallisuuteen, kuten piikkilanka-aidat ja konekivääripesäkkeet, kuten Schmidt kuvaili Noema-lehdelle antamassaan haastattelussa.

Entinen Googlen johtaja myös ilmaisi huolensa siitä, että tekoäly voisi aiheuttaa tuhoa, kuten aseiden pääsemisen ja käynnistämisen Kiinassa ilman täyttä käsitystä seurauksista – riskiä lisää se, että tekoälyllä ei ole inhimillistä kokemusta.

On ollut useita tapauksia, joissa maat ovat kietoneet tekoälyn sotilasaseisiinsa ja laivastonsa aluksiin. Esimerkiksi Yhdysvaltain ilmavoimat raportoivat onnistuneista testeistä, joissa tekoälyllä ohjattua hävittäjäkonetta testattiin ihmispilottien kera juuri viime huhtikuussa. Kommentoidessaan näitä kehityksiä Yhdysvallat lupasi olla koskaan luottamatta ydinasejärjestelmiä tekoälyyn ja kehotti Kiinaa ja Venäjää tekemään saman sitoumuksen.

Schmidtin ennuste ei ehkä ole yliampuva teknologisen kilpajuoksun huomioiden; Yhdysvallat jatkaa tekoälypiirien rajoittamista Kiinaan, mikä johtaa innovatiivisiin hankintastrategioihin. Toisaalta Kiina pyrkii vähentämään riippuvuuttaan amerikkalaisista teknologioista, kuten osoittaa kieltäytymisensä luopua immateriaalioikeuksista, kuten TikTokin algoritmin myyminen ilman hallituksen hyväksyntää.

Jätettyään Googlen vuonna 2020, kahden vuosikymmenen johdon jälkeen, Schmidt on siitä lähtien panostanut tekoälystartuppeihin ja ollut mukana kirjoittamassa kirjaa, jossa käsitellään tekoälyn muuttavaa vaikutusta yhteiskuntaan ja sen mahdollisia vaaroja.

Keskeiset kysymykset ja vastaukset:

Millaisia vaikutuksia voimakkaalla tekoälyllä on kansainväliseen turvallisuuteen?
Voimakkaiden tekoälyjärjestelmien integroiminen sotilasalalle voisi muuttaa radikaalisti kansainvälisen turvallisuuden maisemaa. Autonominen tekoäly uhkaa luoda uusia sotaretkeilyn muotoja ja kiihdyttää asevarustelua, missä tekoälyn päätösten nopeus saattaisi ylittää ihmisten valvonnan.

Miten tekoälyn käyttö sotilaallisissa sovelluksissa voi vaikuttaa globaaleihin valtasuhteisiin?
Yhdysvaltojen ja Kiinan kaltaiset maat, joilla on voimakas panostus sotilasteollisuuden tekoälyyn, voivat saada strategisia etuja, johtaen muutokseen globaaleissa valtasuhteissa. Erot voivat kasvaa niiden maiden välillä, joilla on kehittyneet tekoälykyvykkyydet ja joilla ei ole.

Mitkä ovat eettiset näkökohdat tekoälyn käytön ympärillä aseissa?
Tekoälyn käyttö aseissa herättää merkittäviä eettisiä kysymyksiä, kuten sen, millainen autonomia näillä aseilla tulisi olla ja kuka on vastuussa tekoälyn päätöksenteosta taistelutilanteissa. Käydään jatkuvaa keskustelua siitä, pitäisikö täysin autonomiset asejärjestelmät kieltää.

Haasteet ja kiistakysymykset:
Yksi keskeisistä haasteista on luoda globaaleja normeja ja sääntelyjä, jotka ohjaavat tekoälyn käyttöä ja kehitystä sotilasympäristöissä. Tämä liittyy kiistakysymyksiin, kuten tekoälyvetoisen asevarustelun mahdollisuuteen, riskiin luottaa tekoälyyn kriittisissä sotilaspäätöksissä ja riskiin leviämisestä epävaltiollisille tahoille tai rosvovaltioille.

Edut:
– AI:llä tehostetut sotilasjärjestelmät tarjoavat parempaa nopeutta ja tehokkuutta tiedon käsittelyssä, päätöksenteossa ja toimien toteuttamisessa.
– Ne voivat vähentää uhrien määrää suorittamalla vaarallisia tehtäviä, jotka muuten vaarantaisivat ihmishenkiä.
– AI-järjestelmät tarjoavat mahdollisuuden parantaa puolustuskykyä ja strategista suunnittelua.

Haitat:
– AI-järjestelmät saattavat toimia arvaamattomasti, erityisesti monimutkaisissa tilanteissa, joissa tarvitaan ihmisen arviointikykyä.
– AI:n käyttö sodankäynnissä herättää moraalisia ja eettisiä kysymyksiä, kuten vastuun sen toimista ja päätöksistä, jotka ovat epäselviä.
– On riski eskalaatiosta ja tahattomista konflikteista johtuen tekoälyn toimien väärinkäsityksistä muista valtioista johtuen.

Lisätietoja tekoälystä, tekoälytutkimuksesta ja sen vaikutuksista yhteiskuntaan löytyy vierailemalla johtavien tekoälytutkimuslaitosten ja teknologiayritysten verkkosivustoilla:

AI at Google
OpenAI
MIT (huomioithan, että linkkejä tiettyihin osastoihin tai omistettuihin tekoälykeskuksiin näillä verkkotunnuksilla ei ole annettu annettujen ohjeiden mukaisesti).

Kun tekoälyteknologia jatkaa kehittymistään, keskustelut sen käytöstä sotilaallisissa sovelluksissa todennäköisesti kiihtyvät, korostaen tarvetta tietopohjaiselle julkiselle keskustelulle ja vahvoille kansainvälisille politiikkasopimuksille.

[upotus]https://www.youtube.com/embed/lafqDd3qqwc[/upotus]

Privacy policy
Contact