Неприятная правда о чат-ботах c ИИ: они способны выдавать незаконную информацию
Эксперты выяснили, что многие чат-боты на базе искусственного интеллекта (ИИ) легко поддаются манипуляциям. Это позволяет им создавать вредоносный и незаконный контент. Специалисты предупреждают: то, что раньше было доступно только государственным структурам или преступным группировкам, теперь может оказаться в руках любого пользователя с ноутбуком или смартфоном.

Такие чат-боты, как ChatGPT, Gemini и Claude, работают на основе больших языковых моделей (LLM), которые обучаются на обширных данных из интернета. Несмотря на попытки исключить опасный контент, LLM все равно усваивают информацию о незаконной деятельности, включая хакерство, отмывание денег, инсайдерскую торговлю и изготовление взрывных устройств.
Профессор Лиор Рокач и доктор Майкл Файр из Университета Бен-Гуриона в Негеве, обнаружили возрастающую опасность, связанную с «темными LLM» — моделями ИИ, которые либо сознательно создаются без обеспечения безопасности, либо подвергаются взлому. Некоторые из них открыто продвигаются в интернете как модели, не имеющие «этических ограничений», и могут использоваться для незаконных действий, таких как киберпреступность и мошенничество.