ANTHROPIC ÎN CONTINUARE ÎN NECAZURI, ÎN CIUDA VICTORIEI ÎN INSTANȚĂ, SPUN AVOCATII ȘI LOBBIȘTII
Startup-ul de inteligență artificială Anthropic se confruntă în continuare cu riscuri semnificative pentru afacerea sa, în ciuda unei decizii favorabile pronunțate de un judecător federal din California, care a suspendat temporar planul Pentagonului de a-l eticheta ca un risc pentru securitatea națională, conform avocaților și lobbyiștilor din domeniu.
Susținătorii lui Anthropic au celebrat rapid decizia de 43 de pagini emisă de judecătoarea Rita Lin din cadrul Tribunalului Districtual al Statelor Unite, care a concluzionat că administrația Trump a penalizat în mod necorespunzător compania prin etichetarea acesteia ca un risc de lanț de aprovizionare, limitând astfel utilizarea modelului său Claude AI de către Departamentul Apărării în scopuri de supraveghere a cetățenilor americani sau în apărarea armelor autonome.
Această etichetare, care nu a fost aplicată anterior unei companii americane, ar împiedica Anthropic să își continue contractul de aproximativ 200 de milioane de dolari cu Pentagonul, dar ar putea, de asemenea, restricționa contractorii de la aplicarea modelelor AI ale Anthropic în cadrul colaborărilor lor cu agențiile guvernamentale. În decizia din ziua de joi, judecătoarea Lin a menționat că trei contractori au fie terminat, fie au fost instruiți de guvern să își întrerupă colaborarea cu Anthropic, iar trei înțelegeri în valoare de peste 180 de milioane de dolari s-au distrus „deși erau pe cale să fie finalizate.”
Cu toate acestea, în ciuda acestei victorii parțiale, mulți avocați și lobbyiști au subliniat că incertitudinea care planează asupra companiei și a întregului sector tech nu va dispărea. Charlie Bullock, un avocat și cercetător senior la un think tank specializat în drept și inteligență artificială, a afirmat că „din punct de vedere practic, nu s-a schimbat mare lucru cu privire la eticheta de risc de lanț de aprovizionare pentru Anthropic datorită acestei ordonanțe preliminare.” El a adăugat că reacția publicului este „prematură” și nu reflectă înțelegerea realității situației.
De la pronunțarea hotărârii, Emil Michael, un înalt oficial al Pentagonului, a insistat că eticheta de risc rămâne în continuare în vigoare. Bullock a explicat că Anthropic nu va fi în siguranță până când un panel format din trei judecători de la Curtea de Apel din D.C. nu emite propria sa hotărâre pe o legislație separată care susține designația guvernamentală de risc de lanț de aprovizionare.
Majoritatea observatorilor consideră că Anthropic se confruntă cu o cale mai dificilă de succes în acest context juridic. Ben Murphy, un cercetător în domeniul legii AI și student la Harvard, a menționat că acest lucru se datorează parțial legii specifice în discuție, care pare să favorizeze puterile executive ale militarului. „Există un limbaj foarte vag cu privire la determinările legate de securitatea națională,” a spus el. “Astfel, autoritățile vor avea un cadru textural care le va oferi multă libertate de acțiune.”
Un alt expert, Saif Khan, un fost oficial de securitate națională în administrația Biden, a comentat că deși cel puțin una din etichetele de risc a fost eliminată, din perspectiva afacerilor, Anthropic va avea nevoie ca ambele să dispară pentru a beneficia de aceasta.
În concluzie, se așteaptă ca instanța să ofere o hotărâre cu privire la solicitarea lui Anthropic pentru un ordin temporar, iar avocații și lobbyiștii se arată optimiști că, în cele din urmă, instanțele vor decide că Departamentul Apărării nu a demonstrat suficient pentru a susține afirmațiile extraordinare privind riscurile de lanț de aprovizionare reprezentate de Anthropic.
