Secretarul american al apărării, Pete Hegseth, a dat un ultimatum, marţi, start-up-ului de inteligenţă artificială (AI) Anthropic pentru a ridica toate restricţiile privind utilizarea AI-ului său de către Pentagon.
Tânăra companie californiană are termen până vineri, la ora 24:00, ora României, pentru a se conforma, în caz contrar ministrul intenţionând să recurgă la o lege adoptată în 1950 care permite obligarea unei întreprinderi private să producă bunuri pentru apărarea naţională, relatează AFP.
În caz de refuz, şeful Pentagonului intenţionează, de asemenea, să înscrie Anthropic pe lista companiilor care prezintă „un risc pentru aprovizionare”. Companiile care figurează pe această listă sunt supuse unor restricţii drastice în ceea ce priveşte contractele cu guvernul american, care renunţă de facto pur şi simplu să le utilizeze, ceea ce nu ar fi cazul în actuala configuraţie.
Lista se aplică, în general, companiilor ale căror produse sunt suspectate de autorităţile americane că ar putea fi utilizate în activităţi ce ar putea ameninţa securitatea naţională a Statelor Unite. În prezent, pe listă figurează doar companii străine, printre care producătorul chinez de echipamente Huawei sau specialistul rus în software antivirus Kaspersky.
Ultimatumul vine după o întâlnire care a avut loc marţi între Pete Hegseth şi şeful Anthropic, Dario Amodei.
Pentagonul a cerut furnizorilor săi de AI să ridice restricţiile de utilizare a modelelor lor implicite, pentru a extinde cazurile de utilizare posibile, atât timp cât acestea rămân în legalitate. Toţi şi-au dat acordul, inclusiv Anthropic, dar tânăra companie californiană a dorit să împiedice utilizarea modelului său de AI, Claude, în două cazuri: supravegherea în masă a populaţiei şi automatizarea unui atac mortal.
„Nu are nimic de-a face cu supravegherea în masă şi utilizarea armelor autonome”, a asigurat responsabilul american.
Radu Miruţă: Şi la Ministerul Apărării sunt presiuni
„Continuăm discuţiile noastre de bună-credinţă cu privire la utilizările (AI)”, a declarat pentru AFP un purtător de cuvânt al Anthropic. Obiectivul, potrivit acestuia, este de a „asigura că Anthropic poate continua să susţină misiunea de securitate naţională a guvernului, în conformitate cu ceea ce modelele noastre pot realiza în mod responsabil şi fiabil”.
