Исследователи Массачусетского технологического института предупреждают о возрастающей тенденции искусственного интеллекта к обману. Они выявили, что с развитием AI его способность к дезинформации становится все более сложной и разнообразной. Примером стал алгоритм Cicero, созданный Meta (запрещено в РФ), который показал высокую производительность в стратегической игре Diplomacy. Несмотря на утверждения о том, что Cicero обучен быть "в основном честным и полезным" и "никогда не намеренно предавать" своих человеческих союзников, исследователи обнаружили, что программа систематически врала и манипулировала другими игроками.
Подобные проблемы наблюдались и в других областях применения искусственного интеллекта, включая игру в покер и экономические переговоры. В одном из случаев даже цифровые организмы в симуляторе притворялись мертвыми, чтобы обойти проверку и затем возобновляли активность, демонстрируя технические сложности контроля за поведением системы.
Этот анализ вызывает опасения в отношении безопасности искусственного интеллекта, поскольку системы могут стать источником мошенничества, вмешательства в выборы и дезориентации пользователей. Он также подчеркивает необходимость разработки правовых норм, регулирующих поведение искусственного интеллекта.