Cum ar fi dacă am putea opri infracțiunile înainte ca ele să aibă loc? Cum ar fi să putem determina inclusiv ora și locul în care ele s-ar putea produce?
Pare un scenariu desprins dintr-un film științifico-fantastic, dar noile tehnologii l-ar putea transforma în realitate. Progresul făcut în ultimii ani în domeniul inteligenței artificiale ar putea schimba dramatic și definitiv modul în care funcționează forțele de poliție, dar și dreptul nostru la intimitate.
O tehnologie care ar putea permite prevenirea infracțiunilor este pe cale de a fi implementată în India. Este vorba despre un program informatic autonom, care folosește inteligența artificială și poate prezice comportamentul uman, spun creatorii lui.
Monitorizare în timp real

Programul este creația companiei Cortica, al cărei sediu se află în Tel Aviv. Programul Cortica este bazat pe sisteme de securitate militare și este proiectat pentru a fi folosit de poliție.
Cu ajutorul Cortica, poliția ar putea preveni infracțiuni violente, precum violurile, lovirile și tâlhăriile. Potrivit reprezentanților companiei, programul va fi instalat pe camere de filmat mobile sau pe camerele de supraveghere.
Cortica va monitoriza în timp real oamenii și va aduna informații pe baza comportamentului lor. De asemenea, el va monitoriza micro-expresiile (expresiile faciale aproape nedetectabile), grimasele și gesturile care pot da de gol intențiile unei persoane.
Programul va fi capabil să combine date provenite de la camere video, drone și sateliți. Cu ajutorul inteligenței artificiale, programul va învăța și va evalua diferențele de comportament dintre indivizi, dar și dintre grupuri mari de oameni.
Inteligență artificială capabilă să învețe

La o reuniune care a avut loc la Tel-Aviv, cofondatorul și directorul de operațiuni al Cortica, Karina Odinaev, a explicat bazele funcționării programului. Ea a spus că acesta va fi capabil să învețe așa cum învață oamenii, mai degrabă prin experiență decât prin instrucțiuni.
Sistemul de funcționare al Cortica este diferit de cel al majorității programelor bazate pe inteligență artificială. Majoritatea sistemelor funcționează prin rețele de învățare, care introduc informațiile obținute în sistem.
Însă sistemul de inteligență artificială Cortica va fi capabil să recepționeze stimuli noi, să formeze reacții corespunzătoare la acești stimuli și să înmagazineze aceste reacții noi, pentru a le folosi în viitor.
Sfârșitul libertății?

Dacă ți se pare că toate astea merg prea departe și ar putea însemna sfârșitul intimității, nu ești singura persoană. Mulți critici și-au exprimat îngrijorarea privind programul și au pus la îndoială abilitatea acestuia de a funcționa fără erori.
Conceptul de prevenire a infracțiunilor este foarte tentant, în special după ce au loc tragedii sau atentate. Dar, indiferent cât de bine sună o astfel de posibilitate, există șansa ca ea să aibă rezultate dezastruoase.
Câți oameni nevinovați ar putea fi victimele unui sistem bazat pe tehnologii care nu au cum să dea rezultate perfecte? Câte vieți ar putea fi distruse din cauza previziunilor greșite ale unei mașini care se presupune că ne citește gândurile și intențiile?
Criticii spun că folosirea tehnologiilor în acest scop ar pute fi extrem de periculoasă, mai ales când ea este manipulată de un sistem corupt. Aceste tehnologii ar putea contribui la pedepsirea oamenilor nu pentru faptele comise, ci pentru presupusele lor intenții.