CEO-ul și fondatorul rețelei Celsius, Alex Mashinsky, a fost condamnat la 12 ani de închisoare de către un tribunal din SUA, după ce s-a dovedit că a comis fraude semnificative în domeniul criptomonedelor. La apogeul său, Celsius Network deținea aproximativ 25 de miliarde de dolari în active, având un impact considerabil în industria de criptomonede. Totuși, precum multe alte operațiuni de criptomonede, Celsius a suferit un eșec în anul 2022. Procurorii au căutat inițial o sentință de 20 de ani pentru Mashinsky, acuzându-l că a înșelat și a indus în eroare clienții cu privire la starea simbolului criptografic al companiei sale, CEL. Această știre subliniază riscurile și incertitudinile asociate cu investițiile în criptomonede și evidențiază importanța reglementării stricte pentru a proteja investitorii de astfel de practici frauduloase. Condamnarea sa servește ca un exemplu puternic într-o industrie care este din ce în ce mai mult sub lupa autorităților de reglementare, iar impactul acestui caz sugerează că investitorii trebuie să fie prudenti și bine informați atunci când navighează într-un peisaj financiar volatil.
Ministerul Justiției din Marea Britanie dezvoltă un algoritm menit să identifice persoanele care ar putea deveni criminali, conform unui raport The Guardian. Acest proiect, numit inițial 'proiectul de predicție a omuciderilor', folosește date colectate de la forțele de poliție din UK, incluzând potențial informații despre victime, martori, și suspecți. Scopul acestui algoritm este de a preîntâmpina crimele prin identificarea și monitorizarea indivizilor care prezintă un risc crescut de a comite infracțiuni violente. Această abordare amintește de conceptul de science-fiction prezentat în filmul 'Minority Report,' unde tehnologia este utilizată pentru a prezice și preveni crime înainte ca acestea să aibă loc. Proiectul a stârnit însă îngrijorări privind etica și precizia unor astfel de metode predictive, criticii subliniind riscurile asociate cu privire la confidențialitatea datelor și posibile prejudecăți rasiale sau sociale. În plus, implementarea acestui sistem ridică întrebări fundamentale despre libertățile individuale și posibilele abuzuri legale, într-o societate unde echilibrul dintre siguranță și libertate devine din ce în ce mai fragil. Astfel, pe măsură ce tehnologia avansează, este esențial să fie asigurată transparența și responsabilitatea instituțiilor care o utilizează pentru a nu periclita integritatea drepturilor cetățenilor.
Un deepfake generat de inteligența artificială al unei victime decedate dintr-un incident de furie pe șosea a dat o declarație de impact personalizat în cadrul unei audieri de sentință în instanță, conform raportării NBC News, marcând o premieră în utilizarea acestei tehnologii în justiție. Această tehnologie de manipulare video a fost utilizată pentru a aduce vocea și imaginea digitalizată a unui bărbat decedat, permițându-i să își exprime gândurile și sentimentele într-un moment crucial al procesului legal împotriva acuzatului. Folosirea deepfake-urilor pentru astfel de scopuri ridică întrebări etice și legale semnificative, dar, de asemenea, arată potențialele moduri inovatoare prin care inteligența artificială poate contribui la sistemul de justiție, deși controversată, inițiativa evidențiază noile direcții în care tehnologia digitală se intersectează cu procesele juridice tradiționale. Acesta ar putea fi un punct de cotitură în felul în care victimele sunt reprezentate în instanță și modul cum declarațiile lor ar putea să fie articulate, chiar și după moarte, redefinind modalitatea prin care sistemul judiciar integrează mărturii cu ajutorul tehnologiei.