Prezydent Stanów Zjednoczonych zrywa współpracę amerykańskich agencji rządowych z Anthropic, które jest twórcą Claude – modelu sztucznej inteligencji. A wszystko to pokłosie sporu spółki z Pentagonem co do zasad wykorzystania technologii AI przez wojsko, a dokładniej jej potencjalnego stosowania do celów inwigilacji w systemach broni autonomicznej. Producent Claude’a nie zgodził się na żądania Departamentu Wojny dotyczące usunięcia ograniczeń etycznych wykorzystywanych przez wojsko modeli. Istniejące ograniczenia wymierzone były przeciwko wykorzystaniu go do rozwoju autonomicznej broni i systemów masowej inwigilacji.
Bezpieczeństwo AI w Anthropic
Anthropic jest firmą kładącą ogromny nacisk na bezpieczny i kontrolowany rozwój sztucznej inteligencji. To właśnie ta firma przeprowadziła głośny eksperyment, w którym agent AI zdecydował się szantażować inżyniera, mającego go usunąć. Anthropic zatrudnia sztab etyków i przedstawicieli innych nauk filozoficznych, pracujących nad tym, żeby Claude był modelem maksymalnie bezpiecznym i przyjaznym człowiekowi.
Do niedawna firma działała według restrykcyjnej polityki dotyczącej kontroli nad rozwojem i działaniem modeli AI. Zakładała ona, że jeśli model stanie się tak zaawansowany, że pojawią się wątpliwości co do możliwości kontrolowania jego zachowania, prace nad dalszym rozwojem modelu zostaną wstrzymane. Dopiero na początku tego roku, Anthropic poinformował, że utrzymanie tych zasad jest pozbawione sensu, jeśli nie będą trzymać się ich też inni najważniejsi gracze na rynku.
Claude w Pentagonie
Rozwijany przez Anthropic model LLM, Claude, uważany jest za jeden z najlepszych modeli obecnych na rynku. Przez długi czas był to jedyny model sztucznej inteligencji uprawniony do operowania na niejawnych danych amerykańskiego wojska i wywiadu. Na początku lutego Departament Wojny postawił Anthropicowi nowe warunki dotyczące eksploatacji jego modeli w amerykańskiej armii. Anthropic tych warunków nie przyjął.
Kością niezgody były dwa potencjalne zastosowania AI, które Anthropic kategorycznie odrzucił. Firma przede wszystkim nie godzi się na wykorzystanie Claude’a do systemów masowej inwigilacji wewnętrznej. Dario Amadei, prezes Anthropic, argumentował, że takie wykorzystanie sztucznej inteligencji stwarza ogromne zagrożenie dla praw i wolności obywateli USA, a dotychczasowe praktyki wywiadu wskazują, że nie można mu w pełni zaufać, szczególnie gdy będzie dysponować tak potężnymi narzędziami. Drugą kwestią, był rozwój autonomicznej broni – systemów uzbrojenia zdolnych wybierać cel i podejmować decyzję o ataku całkowicie bez udziału człowieka. Według Anthropic, sztuczna inteligencja nie jest jeszcze wystarczająco niezawodna, żeby móc choćby myśleć o wykorzystaniu jej na tym polu. Budowa takich systemów musi być poprzedzona zaawansowanymi pracami badawczymi – Anthropic proponowało takie programy Pentagonowi, ale on odmówił.
Reakcja Departamentu Wojny
Departament Wojny nie dość, że zakończył wart 200 milionów dolarów kontrakt z Anthropic, to podjął dalsze działania wymierzone przeciwko firmie. Poinformował mianowicie o zamiarze formalnego uznania firmy za zagrożenie dla łańcucha dostaw – ta procedura była dotychczas stosowana tylko wobec firm z wrogich państw. Status ten nie tylko wyklucza z kontraktów rządowych, ale też z wielu kontraktów z firmami realizującymi zlecenia rządowe. Ponadto, w ciągu najbliższych 6 miesięcy , amerykańska administracja federalna ma całkowicie zrezygnować z korzystania z produktów Anthropic.
Na początku tego tygodnia kontrakt z departamentem wojny podpisało OpenAI. Sam Altman, prezes firmy, zapewnia, że zawarta umowa wyklucza wykorzystanie ich modeli w celach, które stały się źródłem sporu między Antropic, a Pentagonem. Niemniej, ograniczenia przewidziane przez OpenAI są tylko umowne, podczas gdy te zastosowane przez Anthropic zostały wpisane bezpośrednio w architekturę modelu. Kontrakt został negatywnie przyjęty przez opinię publiczną, a Sam Altman przyznaje, że zawarty został pośpiesznie. W ubiegłym tygodniu, Claude wyprzedził należący do OpenAI ChatGPT, i stał się najczęściej pobieraną aplikacją na urządzenia mobilne Apple. Komentatorzy łączą ten fakt, z pozytywnym odbiorem decyzji Antropic przez opinię publiczną.
Źródła:
https://www.anthropic.com/news/statement-department-of-war
https://techcrunch.com/2026/03/01/openai-shares-more-details-about-its-agreement-with-the-pentagon/
