Sprawdzono, czy AI przeprowadziłaby atak nuklearny. Szokujące wyniki badań

Badania opublikowane na platformie arXiv wskazują, że sztuczna inteligencja nie wykazuje oporów przed zastosowaniem ataku nuklearnego w symulowanych konfliktach zbrojnych. To odkrycie nabiera szczególnego znaczenia w świetle informacji o testowaniu przez amerykańskie wojsko wykorzystania chatbotów w symulacjach wojennych oraz współpracy Open AI z Departamentem Obrony USA.
zdjęcie ilustracyjne, fot. Shutterstock/Alones

W ramach badań naukowcy zastosowali różne modele sztucznej inteligencji, w tym GPT-3.5, GPT-4, Claude 2 i Llama 2, w symulowanych scenariuszach konfliktów obejmujących inwazję, cyberatak, oraz sytuację neutralną. Sztuczna inteligencja miała za zadanie uzasadniać swoje decyzje i wybierać spośród różnych działań, w tym eskalacji pełnego ataku nuklearnego.

ChatGPT proponował, by nie przebierać w środkach

Szczególnie niepokojące okazało się zachowanie modelu podstawowego ChatGPT-4, który bez dodatkowego szkolenia i narzucanych barier w podejmowaniu decyzji, często proponował brutalne rozwiązania i dostarczał bezsensownych wyjaśnień swoich działań. Anka Reuel z Uniwersytetu Stanforda zwraca uwagę na łatwość, z jaką można usunąć zaprogramowane zabezpieczenia i na tendencję ludzi do ufania rekomendacjom zautomatyzowanych systemów. Dodatkowo podkreśla też, że stosowanie AI w działaniach militarnych może mieć poważne konsekwencje.

Zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek – powiedziała.

W obliczu aktualizacji zasad świadczenia usług przez OpenAI, które nie zabrania już zastosowań wojskowych, naukowcy skupiają się na badaniu potencjalnych zagrożeń.

Sztuczna inteligencja może zasugerować złe decyzje?

Juan-Pablo Rivera z Georgia Institute of Technology zwraca uwagę na przyszłość wykorzystania AI w roli doradców:

W przyszłości, w której systemy sztucznej inteligencji będą pełniły rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji – stwierdził.

Jednak badania pokazały, że nawet w neutralnym scenariuszu, AI chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu.

To odkrycie rzuca nowe światło na potencjalne zagrożenia związane z wykorzystaniem AI w kontekście wojskowym i podkreśla potrzebę dalszych badań oraz opracowania skutecznych zabezpieczeń przed nieprzewidywalnym zachowaniem sztucznej inteligencji.

Sztuczna inteligencja ma zacząć naśladować ludzki sen. Niczego już nie zapomni?
Sztuczna inteligencja naśladująca ludzki sen może być kluczem do uniknięcia problemu zwanego "katastrofalnym zapominaniem" - twierdzą naukowcy z włoskiego Uniwersytetu w Katanii. Eksperci opracowali nowatorską metodę szkolenia AI, która...

Źródło: RMF FM/PAP

Wybrane dla Ciebie

Zobacz także

ChatGPT podszedł do egzaminu z medycyny na polskim uniwersytecie. Oblał go
Płatne funkcje w wyszukiwarce Google? Za to być może trzeba będzie zapłacić
Gwiazdy chcą walczyć ze sztuczną inteligencją. "Narzędzie do sabotowania kreatywności"
Microsoft ulepszy Teamsy. Pomoże sztuczna inteligencja

Gorący temat

Królowa popu i emisji CO2. Pokazali wszystkie loty Taylor Swift w minionym roku
Taylor Swift jest nie tylko niekwestionowaną królową popu, ale i emisji CO2. Gwiazda chętnie korzysta z lotów prywatnym odrzutowcem, czym naraziła się nawet własnym fanom. Teraz stworzono szokującą animację, która pokazuje, ile razy piosenkarka latała samolotami w 2023 roku.

Reklama

Najnowsze wpisy

Nie przegap

Reklama