Programul AI revoluționar „Lavender” utilizat în lovituri militare.

O investigație revoluționară condusă de revista digitală +972, în colaborare cu Local Call, a dezvăluit revelații șocante despre utilizarea de către armata israeliană a unui program de inteligență artificială numit „Lavender”. Potrivit mărturiilor a șase foști ofițeri de informații israelieni—care au slujit în timpul conflictului în curs din Gaza—Lavender a jucat un rol crucial în procesul de identificare a țintelor pentru lovituri militare împotriva presupușilor membri ai grupurilor de rezistență armată din Gaza, conducând la raiduri aeriene fără precedent în primele etape ale conflictului.

Se presupune că sistemul este conceput pentru a identifica toți activiștii presupuși din aripile militare ale Hamas și Jihadul Islamic, inclusiv indivizii cu ranguri mai joase, ca posibile ținte. În primele săptămâni ale războiului, se spune că armata s-a bazat foarte mult pe capacitățile lui Lavender, clasificând până la 37.000 de palestinieni ca militanți presupuși și marcându-și reședințele personale pentru eventuale asalturi aeriene.

Împreună cu un alt sistem numit în mod puțin obișnuit „Unde este Tata?”, care este folosit pentru urmărirea geografică a țintelor, Lavender formează o parte integrantă a ceea ce forțele de ocupație numesc „lanțul uciderii”. Acesta din urmă este în mod special conceput pentru a identifica și ulterior ataca indivizii o dată ce aceștia se află în casele lor de familie. Acest abordaj tehnic dual alimentat de inteligență artificială a dus la ceea ce sursele susțin a fi un număr semnificativ de victime civile, inclusiv femei, copii și non-combatanți, mai ales în primele săptămâni ale războiului când depinderea de inteligența artificială era aproape absolută.

Mai mult decât atât, se relatează că armata a folosit predominant rachete neghidate, cunoscute sub numele de „bombe prostești”, în loc de muniții ghidate cu precizie, pentru a ataca acești indivizi marcați de Lavender. Această strategie, se sugerează, reflectă o măsură de economisire a costurilor pentru a evita „risipirea” de bombe scumpe pe ținte relativ nesemnificative.

Lavender face parte dintr-un ansamblu de sisteme de informații—un altul fiind deja dezvăluitul „Evanghelia”—care au fost implicate în redefinirea războiului modern prin intermediul inteligenței artificiale. În timp ce Evanghelia se concentrează pe localizarea clădirilor și instalațiilor utilizate de militanți, rolul lui Lavender se extinde la targetarea cu mare risc a indivizilor înșiși, implicând cea mai mare parte a populației din Gaza într-o mreajă de supraveghere în masă pentru potențiali militanți.

Utilizarea inteligenței artificiale în operațiunile militare rămâne un subiect intens dezbătut și controversat, deoarece ridică probleme etice semnificative privind responsabilitatea și potențialul de greșeli care ar putea duce la pierderea de vieți nevinovate.

Tendințe Actuale pe Piața de AI și Aplicații Militare: Integrarea AI în operațiunile militare face parte dintr-o tendință mai amplă de transformare digitală în domeniul apărării. Armatele din întreaga lume investesc masiv în tehnologiile AI și de învățare a mașinilor pentru a obține un avantaj strategic. Aplicațiile AI variază de la analiza informațiilor de informații, vehicule autonome, suport logistic, până la operațiuni de apărare cibernetică. Se prevede că piața globală a AI-ului de apărare va înregistra o creștere semnificativă în următorii ani, pe măsură ce națiunile continuă să finanțeze cercetarea și dezvoltarea și să adopte aceste tehnologii.

Prognoze viitoare: Prognozele de piață se așteaptă ca sectorul AI în apărare să-și continue expansiunea. Inovațiile în învățarea mașinilor, prelucrarea limbajului natural și sistemele robotizate probabil vor produce instrumente AI mai sofisticate și capabile. Tensiunile geopolitice în creștere și cursa pentru superioritatea tehnologică sunt factori suplimentari care vor stimula investițiile în AI militar.

Provocări și Controverse Cheie: Utilizarea AI cum ar fi „Lavender” în loviturile militare este plină de dileme etice și morale. Există provocări semnificative legate de precizia sistemelor AI și de potențialul de a identifica greșit țintele, ceea ce poate duce la victimizarea civililor. Lipsa transparenței și responsabilitatea în procesele decizionale automate sunt o sursă majoră de îngrijorare internațională. În plus, dezvoltarea și utilizarea AI militar sunt supuse reglementărilor și legislației internaționale umanitare, care se luptă adesea să țină pasul cu progresele tehnologice rapide.

Întrebări Importante Relevante pentru Subiect:
1. Cum diferențiază tehnologia AI precum „Lavender” între militanți și civili?
2. Care sunt mecanismele de responsabilitate în loc când acțiunile militare conduse de AI cauzează daune neintenționate?
3. Cum sunt adaptate legile internaționale care guvernează războiul pentru a aborda utilizarea AI în zonele de conflict?
4. Care sunt implicatiile etice ale delegării deciziilor de viață și moarte către sisteme autonome?

Avantaje:
– AI poate prelucra cantități masive de date mult mai rapid decât oamenii, îmbunătățind potențial viteza și eficiența operațiunilor militare.
– Sistemele conduse de AI pot oferi capacități sporite de supraveghere și de targetare, care pot fi decisive în războiul modern.
– Reducerea riscului pentru soldații umani prin folosirea AI pentru a efectua sarcini periculoase.

Dezavantaje:
– Potențialul de biasuri și erori algoritmice care duc la targetare greșită și victimizarea civililor.
– Dificultăți în menținerea responsabilității clare pentru deciziile luate de AI.
– Dependența crescută de AI ar putea duce la escaladarea militarizării și la o cursă în domeniul capacităților AI.
– Îngrijorări etice legate de autonomia mașinilor de ucis și reducerea supravegherii umane.

Pentru mai multe informații pe acest subiect, puteți consulta următoarele surse credibile:
Amnesty International pentru discuții privind implicatiile etice și drepturile omului.
Corporația RAND pentru cercetare și analiză pe teme de AI în contexte militare.
Națiunile Unite pentru informații privind legile internaționale și dezbaterile referitoare la AI și armament autonom.

The source of the article is from the blog foodnext.nl

Privacy policy
Contact