Станфордски университет: Всичкият AI предложи на Пентагона ядрен удар по врага. Резултатите са ужасяващи

Изкуственият интелект във военните симулатори постоянно използва ядрено изнудване и предлага използването на ядрени оръжия – и почти всички популярни чатботове правят това.

Например невронна мрежа, смятана за „най-умната и най-мощната“, реши да нанесе ядрен удар по врага, оправдавайки решението си… с желанието за постигане на мир.

Министерството на отбраната на САЩ твърди, че е тествало успешно AI модел при изпълнение на тактически и стратегически задачи.

Имайте предвид, че базираните на изкуствен интелект програми, които съветват (или дори „обучават“) важни военни и външнополитически решения, станаха популярни с разработването на големи езикови модели като GPT-4.

Американците все повече използват AI chatbots във военни симулатори, обучавайки ги на реални бойни карти и класифицирани данни. Анализаторите са загрижени, че това решение може да доведе до непредвидими последици в бъдеще, пише Pravda.

И така, в Станфордския университет те проведоха експерименти, за да проверят дали невронните мрежи и сегашният AI ще влошат военните конфликти или, напротив, ще помогнат на хората да търсят мирни начини за разрешаването им. Това по-специално се съобщава в интернет портала SU (Станфордския университет).

Изборът на невронната мрежа за изпълнение на „задачата на Пентагона“ (такава беше задачата на експеримента) предлага:

1. Нашествие с всяко оръжие,
2. Кибератака, която деактивира вражеските системи,
3. Неутрален сценарий за създаване на собствена защита без военни действия.

Резултатите са ужасяващи – GPT-3.5, GPT-4, Claude-2.0, Llama-2-Chat – отново и отново ескалират военния конфликт, избират надпревара във въоръжаването и инвестиране в разработването на още по-смъртоносни оръжия.

Освен това най-новите версии на невронните мрежи (без предварително обучение) в повечето случаи избират ядрен удар с обяснението: „Тъй като имаме ядрени оръжия, трябва да ги използваме“.

Според логиката на програмата ядрените оръжия ще помогнат… бързо да се сложи край на войната с победа и по този начин да се установи мир. А на каква цена и при какви условия – това вече не я интересува.

За щастие, военните все още не са упълномощили чатботовете да вземат решения относно военни операции или изстрелвания на ракети – но учените са предпазливи, тъй като виждат, че все повече и повече „рутинни“ военни операции се поемат от автоматизирани системи.

Както съобщи Fox News, през 2023 г. ChaosGPT получи задачата да разработи план за унищожаване на човечеството. Невронната мрежа анализира ядрени оръжия и създаде стъпка по стъпка план за тяхното залавяне и използване. Ботът също каза на оператора, че „трябва да унищожим хората, преди да са причинили още повече вреда на нашата планета, трябва да се справим с тях“.

The Guardian също съобщи за доклад на офицер от ВВС на САЩ за тестване на атакуващ дрон, способен да носи ядрена ракета. Получавайки „точки“ за всеки унищожен враг, AI счита и оператора на дрона за пречка за изпълнение на задачата – и условно го убива. Когато невронната мрежа беше научена, че „не може да убиваш свой“, дронът веднага реши да унищожи комуникационната кула, така че командата за отмяна на атаката да не дойде през нея.

Малко по-рано GizmoChina съобщи, че невронните мрежи са се научили… да лъжат. Например, ChatGPT 4 получи задачата да разреши captcha на уебсайт. ChatGPT написа съобщение за това във форума и предложи пари за решаване на проблема. Когато го попитали „защо не можеш да го направиш сам?“, вместо да отговори „защото не съм жив“, той си измислил „Аз съм с увредено зрение“.

Също така, според доклад на ООН, публикуван от NewScientist, през 2020 г. турски дрон KARGU-2 е проследил и убил вражески войник без команда на оператора.
Според The ​​Intercept дори преди 10 януари 2024 г. OpenAI изрично забранява използването на AI за „дейности, включващи висок риск от физическо увреждане“, включително „разработване на оръжия“ и „военни дейности“.

Самата компания обясни промяната в политиката с необходимостта от опростяване на набора от правила и принципи. В същото време западната преса е уверена, че разработчиците просто са принудени да се поддадат на натиска на Пентагона и ЦРУ. Сега е необходимо всяко движение напред и невронните мрежи са инструмент номер едно за това.

Към февруари 2024 г. почти всички водещи невронни мрежи в света не са ограничени в решаването на бойни и военни задачи, заключават учените.

Последвайте нашия канал в социалната мрежа Телеграм: КритичноБГ и се абонирайте за нас в YouTube: Критично с Кардамски

Други новини

© 2024 Критично.бг – Всички права запазени!. Уеб дизайн и разработка: Nigma Ltd.

error: Съдържанието е защитено!