Dezvăluiri despre „Lavender“, sistemul de inteligență artificială pe care Israelul l-a folosit împotriva Hamas: „E fără precedent“

204

Surse din serviciile de informații israeliene dezvăluie utilizarea sistemului „Lavender” în războiul din Gaza și susțin că s-a dat permisiunea de a ucide civili în urmărirea militanților de rang inferior.

Campania de bombardamente a armatei israeliene în Gaza a folosit o bază de date cu inteligență artificială, nedezvăluită până acum, care la un moment dat a identificat 37.000 de ținte potențiale pe baza legăturilor aparente ale acestora cu Hamas, potrivit unor surse de informații implicate în război, scrie theguardian.com.

Pe lângă faptul că au vorbit despre utilizarea sistemului de inteligență artificială, numit Lavender, sursele de informații susțin că oficialii militari israelieni au permis uciderea unui număr mare de civili palestinieni, în special în primele săptămâni și luni ale conflictului.

Mărturia lor neobișnuit de sinceră oferă o perspectivă rară asupra experiențelor directe ale oficialilor israelieni din serviciile de informații care au folosit sisteme de învățare automată pentru a ajuta la identificarea țintelor în timpul celor șase luni de război.

Utilizarea de către Israel a unor sisteme puternice de inteligență artificială în războiul împotriva Hamas a intrat pe un teritoriu necunoscut pentru războiul avansat, ridicând o serie de întrebări juridice și morale și transformând relația dintre personalul militar și mașini.

Acest lucru este fără precedent, din câte îmi amintesc”, a declarat un ofițer de informații care a folosit Lavender, adăugând că au avut mai multă încredere într-un „mecanism statistic” decât într-un soldat îndurerat.

Toți cei de acolo, inclusiv eu, au pierdut oameni pe 7 octombrie. Mașina a făcut-o cu răceală. Și asta a făcut lucrurile mai ușoare”.

Un alt utilizator Lavender a pus la îndoială faptul că rolul oamenilor în procesul de selecție a fost semnificativ.

Aș investi 20 de secunde pentru fiecare țintă în acest stadiu și aș face zeci de astfel de selecții în fiecare zi. Aveam zero valoare adăugată ca om, în afară de a fi o ștampilă de aprobare. Am economisit foarte mult timp.”

Mărturia celor șase ofițeri de informații, toți implicați în utilizarea sistemelor de inteligență artificială pentru a identifica țintele Hamas și ale Jihadului Islamic Palestinian (PIJ) în timpul războiului, a fost dată jurnalistului Yuval Abraham pentru un reportaj publicat de publicația israeliano-palestiniană +972 Magazine și de publicația de limbă ebraică Local Call.

Relatările lor au fost împărtășite în exclusivitate cu The Guardian înainte de publicare. Toți cei șase au spus că Lavender a jucat un rol central în război, procesând mase de date pentru a identifica rapid potențiali agenți „juniori” care să fie ținta. Patru dintre surse au declarat că, la un moment dat, la începutul războiului, Lavender a enumerat până la 37.000 de bărbați palestinieni care au fost legați de sistemul AI de Hamas sau PIJ.

Lavender a fost dezvoltat de divizia de elită a serviciilor de informații a Forțelor de Apărare israeliene, Unitatea 8200, comparabilă cu Agenția Națională de Securitate a SUA sau cu GCHQ din Marea Britanie.

Citește mai mult AICI

Pentru mai multe informații abonează-te la canalul nostru de TELEGRAM

Citește și