Coșmarul Black Mirror devine realitate. O bunică a fost arestată după ce Poliția a folosit AI în recunoașterea facială. A stat cinci luni în închisoare pentru infracțiuni într-un stat în care nu a fost vreodată
Poliția a folosit recunoaștere facială AI pentru a aresta o femeie din Tennessee pentru infracțiuni comise într-un stat în care spune că nu a fost niciodată. Cazul ne amintește de proiectele cinematografice care prevesteau astfel de întâmplări. Black Mirror sau Mercy sunt două dintre peliculele care ne arată cum un sistem poate fi defect, iar oameni nevinovați pot fi arestați sau chiar omorâți din cauza unor erori.
O bunică din Tennessee a petrecut mai mult de cinci luni în închisoare după ce poliția a folosit un instrument de recunoaștere facială bazat pe inteligență artificială pentru a o lega de infracțiuni comise în Dakota de Nord – un stat în care spune că nu a fost niciodată.
Poliția din Fargo, Dakota de Nord, a recunoscut „câteva erori” în acest caz și a promis schimbări în modul de operare, dar s-a oprit înainte de a oferi o scuză directă.
O bunică a fost arestată cinci luni pentru infracțiuni pe care nu le-a comis
Angela Lipps, în vârstă de 50 de ani, a fost arestată pentru prima dată în Tennessee pe 14 iulie, potrivit unui comunicat al Departamentului de Poliție Fargo și unei campanii GoFundMe verificate pentru Lipps.
Fără ca femeia să știe, fusese emis un mandat de arestare pe numele ei cu câteva săptămâni înainte – în Fargo, la peste 1.600 de kilometri de casa ei din Tennessee. Cu luni înainte, mai multe cazuri de fraudă bancară avuseseră loc în locația respectivă, dar și în jurul orașului Fargo, potrivit poliției.
În căutarea unui suspect în aceste cazuri de fraudă bancară, anchetatorii au folosit „tehnologia de recunoaștere facială a agenției partenere”, precum și „alte etape investigative independente de AI pentru a ajuta la identificare”, înainte de a trimite raportul către Biroul Procurorului din Cass County, a declarat șeful poliției Fargo, Dave Zibolski, pentru CNN într-un email.
Șeful Poliției a recunoscut într-o conferință de presă recentă că dependența departamentului său de poliție de unele informații provenite din sistemul AI al unei agenții vecine este „parte din problemă”, referindu-se la erorile făcute în cazul femeii arestate pe nedrept.
„La un moment dat, agenția noastră parteneră din West Fargo și-a achiziționat propriul sistem de recunoaștere facială AI, lucru de care nu eram conștienți la nivel executiv și nu am fi permis utilizarea acestuia, iar de atunci a fost interzis”, a spus el.
Ce sistem AI a oferit informații eronate poliției
Poliția din Fargo și West Fargo a folosit tehnologia de recunoaștere facială pentru a identifica un suspect într-un caz de fraudă, ajungând la Angela Lipps.
Sistemul Clearview AI, utilizat de poliția din West Fargo, a semnalat o persoană cu trăsături similare, iar informația a fost transmisă mai departe către poliția din Fargo.
Totuși, această identificare nu era susținută de suficiente dovezi, iar autoritățile din West Fargo nici măcar nu au formulat acuzații.
Problema a apărut când polițiștii din Fargo au presupus în mod greșit că au primit și alte materiale, precum imagini de supraveghere, ceea ce a dus la întărirea suspiciunii.
Ulterior, șeful poliției a recunoscut că există lacune în modul în care a fost utilizată tehnologia și a anunțat că nu vor mai folosi sistemul respectiv fără o supraveghere clară.
Autoritățile au decis să introducă măsuri suplimentare de control, inclusiv revizuirea periodică a identificărilor făcute prin recunoaștere facială. Cazul evidențiază și o problemă mai largă: adoptarea rapidă a AI în poliție, fără suficiente garanții, ceea ce a dus deja la mai multe identificări greșite și la neîncredere din partea publicului.
Întrebat dacă departamentul intenționează să-și ceară scuze față de Lipps, șeful a spus: „În acest moment, încă nu știm cine este implicat și cine nu este implicat” în cazurile de fraudă.
„Va trebui să analizăm această rețea amplă de persoane și cine este implicat”, a spus el.
„Ce vă pot spune, din ceea ce știu acum, este că persoanele implicate sunt și ele foarte afectate de această situație, pentru că se mândresc cu rigurozitatea lor”, a spus el. „Nimeni nu vrea să vadă pe cineva reținut sau arestat inutil.”
„Ofițerii știau că Angela era rezidentă în Tennessee, iar noi nu am văzut nicio investigație pentru a determina dacă a călătorit sau s-a aflat în Dakota de Nord în momentul furturilor bancare”, au spus ei într-un comunicat de presă după conferința de marți.
„În schimb, un ofițer a folosit recunoașterea facială AI ca o scurtătură pentru investigația de bază, ceea ce a dus la reținerea unei femei nevinovate și transportarea ei la jumătatea țării pentru a răspunde unor acuzații cu care nu avea nicio legătură.”, au declarat avocații femeii arestate.
Femeia arestată pe nedrept a trăit un chin în închisoare: „Îngrozită, epuizată și umilită”
Pe 1 iulie, un judecător din Dakota de Nord a emis un mandat de arestare pe numele Angelei Lipps, valabil la nivel național. Ea a fost arestată pe 14 iulie în Tennessee și a petrecut peste trei luni în închisoare înainte de a fi extrădată.
Abia în octombrie, autoritățile din Tennessee au anunțat că aceasta semnase acordul de extrădare. Angela Lipps era acuzată de mai multe infracțiuni, inclusiv furt și utilizare neautorizată de date personale.
Nu este clar de ce a existat o întârziere atât de mare între arestare și notificarea autorităților din Dakota de Nord. Avocații susțin că existau dovezi încă din iulie că fusese arestată. Poliția nu a putut explica exact dacă întârzierea a fost cauzată de alte probleme legale sau de contestarea extrădării.
Experiența extrădării a fost traumatizantă pentru Lipps, care a spus că era pentru prima dată când zbura cu avionul și că s-a simțit speriată și umilită. În Fargo, avocatul ei a găsit dovezi bancare care arătau că se afla în Tennessee în perioada infracțiunilor.
În decembrie, procurorii au recunoscut existența unor posibile dovezi care o exonerează, iar pe 23 decembrie acuzațiile au fost retrase temporar. Lipps a fost eliberată în ajunul Crăciunului, după luni de detenție pe care le-a descris ca devastatoare.
„Trauma, pierderea libertății și afectarea reputației nu pot fi ușor reparate”, au declarat avocații ei pentru CNN într-un email.
Angela Lipps, mamă a trei copii și bunică a cinci nepoți, nu mai fusese niciodată în Dakota de Nord înainte de extrădare, potrivit afiliatului CNN WDAY.
Și după această experiență, nu intenționează să se mai întoarcă vreodată în acel stat: „Mă bucur doar că s-a terminat”, a declarat ea pentru WDAY. „Nu mă voi mai întoarce niciodată în Dakota de Nord.”. Avocații ei analizează posibile acțiuni în justiție privind drepturile civile.
Utilizarea AI de către autorități a eșuat
Nu este prima dată când utilizarea AI în poliție atrage atenția. Anul trecut, polițiști înarmați au încătușat și percheziționat un elev de liceu din Baltimore County după ce un sistem de securitate bazat pe AI a identificat în mod eronat o pungă goală de Doritos drept posibilă armă de foc.
Ian Adams, profesor asistent în departamentul de Criminologie și Justiție Penală de la Universitatea din Carolina de Sud, a declarat pentru CNN că poliția adoptă în prezent rapid noi tehnologii, inclusiv AI – cu puține dovezi privind eficiența lor.
„Facem asta atât de repede încât tot pe ce se pot baza agențiile sunt promisiunile furnizorilor. În majoritatea covârșitoare a cazurilor, nu este doar o problemă de tehnologie, ci una de tehnologie și oameni. Ajungem la scenarii de coșmar atunci când oamenii nu fac ceea ce ar trebui, folosind tehnologia în mod necorespunzător. Detectivii trebuie să fie extrem de atenți și să verifice cu ochii lor rezultatele generate de algoritmi.”, a declarat Ian Adams.
Black Mirror în viața reală
Cazul femeii arestate pe baza unei identificări greșite făcute de AI seamănă, într-o formă mult mai realistă, cu scenariul din Black Mirror – „Plaything”, dar și cu acțiunea din filmul „Mercy”: încrederea oarbă în sisteme tehnologice care iau decizii despre oameni.
În episodul din Black Mirror, un bărbat se lasă arestat intenționat pentru a accesa sistemele poliției și a permite unei inteligențe artificiale să se infiltreze și să influențeze lumea reală. Acolo, tehnologia este extrem de avansată și devine un instrument de control, aproape autonom.
În realitate, însă, nu AI-ul a orchestrat totul, ci oamenii au avut prea multă încredere într-un sistem imperfect. O simplă potrivire facială a fost tratată ca dovadă solidă, fără verificări serioase, iar rezultatul a fost dramatic: o persoană nevinovată a pierdut luni din viață.
Dacă în Black Mirror pericolul vine dintr-o inteligență artificială care scapă de sub control, în cazul real pericolul vine din folosirea necritică a tehnologiei de către oameni.
Totuși, nu suntem încă într-un scenariu SF în care AI domină lumea, dar suntem deja într-un punct în care deciziile automate pot afecta profund vieți reale. Pentru omenire, ce se întâmplă ar trebui să ne trezească multe curiozități și întrebări relevante: nu dacă AI-ul este periculos în sine, ci dacă instituțiile sunt pregătite să-l folosească responsabil.
Direcția nu este neapărat greșită – tehnologia poate ajuta enorm – dar fără reguli clare, verificări umane și responsabilitate, riscul nu este o „preluare globală”, ci o acumulare de erori nedrepte care afectează oameni reali.
Oare nu suntem pregătiți încă să folosim o tehnologie mai inteligentă decât noi, oamenii?
Mercy, un film cu Chris Pratt care ne arată fix același lucru
Un alt exemplu din cinematografie mai este și filmul „Mercy”, care descrie fix aceeași situație. De această dată, un polițist este arestat tocmai de tehnologia la care el lucrase și o implementase.
Filmul „Mercy” prezintă o lume în care tehnologia și sistemele automatizate au ajuns să joace un rol major în luarea deciziilor legate de oameni, inclusiv în zona justiției și a controlului social.
Filmul „Mercy” (2026) este un thriller SF în care Chris Pratt joacă rolul unui detectiv, Chris Raven. Acțiunea are loc într-un viitor apropiat, unde criminalitatea a crescut atât de mult încât statul a introdus un sistem radical: procesele sunt conduse de un judecător AI, care decide vinovăția și chiar execuția.
Ironia este că personajul lui Pratt chiar a susținut acest sistem la început. Dar ajunge el însuși acuzat că și-a ucis soția. Este arestat și pus direct în fața acestui AI, care îi spune că are doar 90 de minute să-și dovedească nevinovăția — altfel va fi executat.
Tot procesul are loc aproape în timp real, iar AI-ul analizează toate datele: camere de supraveghere, telefoane, înregistrări digitale. Problema este că toate dovezile par să îl incrimineze. Sistemul nu pornește de la ideea de „nevinovat până la proba contrarie”, ci invers: trebuie să-și reducă procentul de vinovăție ca să scape.
Pe parcurs, el descoperă că lucrurile sunt mult mai complicate și că există alte persoane implicate, dar trebuie să lupte contra timpului și contra unui sistem care pare deja convins că e vinovat. În final, reușește să scoată la iveală adevărul și să demonstreze că altcineva a fost responsabil.

















