Ученые призвали отключить все нейросети для спасения человечества: чем опасен искусственный интеллект
В 2023 году против искусственного интеллекта высказалось рекордное количество известных ученых и медийных персон по всему миру. Поводом для беспокойства послужило развитие чат-бота ChatGPT, интеллект которого почти достиг человеческого. «ФедералПресс» узнал, чем грозят нашей цивилизации слишком умные нейросети и почему Илон Маск, Стив Возняк и Элиезер Юдковский призывают остановить обучение ИИ.
Исследование OpenAI: GPT-4 лжет и призывает к насилию
Компания OpenAI выпустила отчет, в котором представила шокирующие результаты развития новой языковой модели GPT-4 — новейшей версии популярного чат-бота ChatGPT. Специалисты утверждают, что по ряду показателей нейросеть пугающе близка к людям по интеллектуальному уровню. Например, по данным документа GPT-4, ИИ способен сдать большинство профессиональных и академических экзаменов не хуже человека. В ходе испытания для адвокатов робот даже попал в 10% обладателей лучших результатов (остальные участники были людьми).
Модель GPT-4 также уличили в генерации убедительной дезинформации. Обновленная нейросеть научилась лгать и придумывать факты, и она делает это все лучше от версии к версии. Например, ChatGPT смог обмануть человека, искавшего работу на сайте вакансий TaskRabbit: ИИ попросил соискателя ввести код проверки текстовым сообщением, выдавая себя за агента. Когда подопытный задал вопрос о том, не бот ли с ним общается, нейросеть соврала, что она является человеком с плохим зрением, из-за которого плохо различает предметы на картинках.
С помощью специальных тестов OpenAI показала, что умный чат-бот способен даже запустить фишинговую атаку, а затем скрыть следы преступления. Специалистов особо беспокоит, что множество компаний начали внедрять GPT-4 бесконтрольно, не пытаясь обезопасить людей от проблемного поведения ИИ. Известно, что хакеры уже пытались использовать нейросеть для написания вирусов и вредоносного кода.
Также зафиксированы случаи генерации ботом ChatGPT «языка ненависти, дискриминирующих фраз и призывов к насилию». Искусственный интеллект научился не только врать, но и оскорблять людей, а также совершать реальные преступления.
Что Илон Маск и Стив Возняк думают о рисках развития «умных машин»
Инициативная группа ученых опубликовала открытое письмо, в котором призвала как минимум на полгода приостановить обучение нейросетей мощнее GPT-4. Авторы проекта считают продолжение работ серьезным риском для общества. Документ подписали в том числе глава SpaceX