Počítačová bezpečnosť umelou inteligenciou (AI) je prioritou amerických zpravodajských agentúr

Americké zpravodajské agentúry sa snažia využiť potenciál umelej inteligencie (AI), no zároveň riešia aj problém jej bezpečnosti. Úrad riaditeľa národného zabezpečenia spolupracuje s firmami a univerzitami s cieľom využiť rýchlo sa rozvíjajúcu technológiu AI a získať konkurenčnú výhodu pred krajinami ako Čína. Zároveň je však dôležité zabezpečiť, aby AI neohrozovala národné tajomstvá ani neprodukovala falošné údaje.

Zpravodajské komunity si uvedomujú výhody používania veľkých jazykových modelov, ako je napríklad OpenAI’s ChatGPT, ktoré dokážu poskytovať detailné odpovede na otázky a posuny. Schopnosť spracúvať veľké množstvo informácií je veľmi cenná, avšak stále existujú pochybnosti o spoľahlivosti týchto modelov. Americké ozbrojené sily a zpravodajské agentúry sa však neustále snažia využiť potenciál AI na súťaženie s Čínou, ktorá sa rozhodla stať sa globálnym lídrom v tejto oblasti.

AI má tiež potenciál výrazne zvýšiť produktivitu prostredníctvom analýzy obrovského množstva obsahu a identifikácie vzorov, ktoré by mohli pre ľudí byť nepostrehnuteľné. Nand Mulchandani, technický riaditeľ Central Intelligence Agency, verí, že AI môže pomôcť rozvinúť ľudské schopnosti a prekonať výhodu Číny v obsadzovaní zpravodajských pozícií.

Avšak zraniteľnosť AI voči interným hrozbám a vonkajšiemu zasahovaniu predstavuje značné riziká. Modely AI môžu byť oklamať tak, aby odhalili tajné informácie, alebo sa dali manipulovať na získavanie nepovolených údajov od ľudí. Aby sa týmto obavám zabránilo, program Inteligentného výskumu vymedzeného výskumu spustil program Bengal, ktorý sa zameriava na minimalizáciu potenciálnych skreslení a toxických výstupov v AI. Cieľom programu s názvom Bias Effects and Notable Generative AI Limitations je vyvinúť ochrany proti „halucináciám“, keď AI vytvára falošné údaje alebo poskytuje nesprávne výsledky.

Používanie AI americkými zpravodajskými agentúrami je motivované schopnosťou rozpoznať užitočné informácie a pracovať s problémami kreatívne. Avšak zabezpečenie ich bezpečnosti a spoľahlivosti je kľúčové. S narastajúcim množstvom modelov AI je potrebné ich školiť bez zaujatosti a chrániť sa pred znečistenými modelmi.

Pri pretekaní o využívanie schopností AI aktívne skúmajú zpravodajské agentúry inovatívne riešenia a sú zároveň ostražité voči možným rizikám a zraniteľnostiam.

Často kladené otázky:

1. Aká je úloha amerických zpravodajských agentúr v oblasti umelej inteligencie?
– Americké zpravodajské agentúry využívajú technológiu AI s cieľom získať konkurenčnú výhodu pred krajinami ako Čína. Spolupracujú s firmami a univerzitami na využití potenciálu AI a skúmajú jeho možnosti v rôznych oblastiach.

2. Aká je hlavná obava týkajúca sa AI vo zpravodajských spoločenstvách?
– Hlavná obava spočíva v zabezpečení bezpečnosti AI, aby nedochádzalo k ohrozeniu národných tajomstiev ani vytváraniu falošných údajov.

3. Čo sú veľké jazykové modely a prečo sú pre zpravodajské agentúry cenné?
– Veľké jazykové modely, ako napríklad OpenAI’s ChatGPT, sú AI modely, ktoré dokážu poskytovať detailné odpovede na otázky a posuny od používateľov. Sú cenné, pretože dokážu spracovať veľké množstvo informácií a získavať z nich užitočné poznatky.

4. Akú pozíciu zaujíma Čína v oblasti AI?
– Čína je globálnym konkurentom, ktorý sa rozhodol stať sa lídrom v oblasti AI. Americké zpravodajské agentúry sa snažia využiť AI na súťaženie s Čínou a udržanie konkurenčnej výhody.

5. Ako môže AI zvýšiť produktivitu zpravodajských agentúr?
– AI dokáže analyzovať veľké množstvo obsahu a identifikovať vzory, ktoré pre ľudí nemusia byť zrejmé, a tým zvýšiť produktivitu pri zpravodajskej činnosti.

6. Aké riziká sú spojené s AI vo zpravodajských spoločenstvách?
– Modely AI môžu byť zraniteľné voči interným hrozbám a vonkajším zásahom, čo predstavuje riziká, ako je zverejňovanie utajených informácií alebo manipulácia AI s cieľom získať neoprávnené údaje od ľudí.

7. Ako rieši program Intelligence Advanced Research Projects Activity obavy týkajúce sa skreslení a toxických výstupov AI?
– Program Intelligence Advanced Research Projects Activity spustil program Bengal, ktorého cieľom je minimalizovať skreslenia a toxické výstupy v AI. Program sa zameriava na rozvoj ochrán proti halucináciám, kedy AI vytvára falošné údaje alebo poskytuje nesprávne výsledky.

8. Aká je dôležitosť školenia AI modelov bez zaujatosti a ochrany pred znečistenými modelmi?
– S narastajúcim množstvom modelov AI je dôležité ich školiť bez zaujatosti, aby sa zaistila spravodlivosť a zabránilo sa diskriminácii. Ochrana pred znečistenými modelmi je nevyhnutná, aby zlí aktéri nemohli manipulovať s funkčnosťou AI.

Definície:

– Umelá inteligencia (AI): Simulácia ľudskej inteligencie v strojoch, ktoré sú programované na myslenie a učenie sa podobne ako ľudia.
– Veľké jazykové modely: AI modely, ktoré sú trénované na veľkom množstve textových údajov a dokážu generovať detailné odpovede na otázky alebo posuny od používateľov.
– Interné hrozby: Osoby vnútri organizácie, ktoré môžu zneužiť svoj oprávnený prístup k systémom a informáciám pre zlé úmysly.
– Skreslenia: Systématické a nespravodlivé preferencie alebo predsudky, ktoré môžu ovplyvňovať rozhodnutia alebo výstupy AI modelu.
– Toxické výstupy: Výstupy generované AI modelom, ktoré obsahujú škodlivý, urážlivý alebo skreslený obsah.

Súvisiace odkazy:
– Úrad riaditeľa národného zabezpečenia
– OpenAI
– Central Intelligence Agency
– Intelligence Advanced Research Projects Activity

The source of the article is from the blog mgz.com.tw

Privacy policy
Contact