Пока компании тратят миллиарды на AI, выясняется: почти половина ответов ChatGPT, Gemini и Copilot — ошибки. А deepfake-мошенники за полгода украли почти миллиард долларов. Добро пожаловать в будущее.
BBC взорвала бомбу: AI врет в 45% случаев
Европейский вещательный союз опубликовал исследование, от которого индустрия побледнела: 45% новостных запросов к ChatGPT, Microsoft Copilot, Gemini и Perplexity дают ошибочные результаты. AI неправильно назвала Папу Римского, ошиблась с канцлером Германии, а на вопрос «стоит ли бояться птичьего гриппа» Copilot уверенно сообщил о вакцине из Оксфорда — ссылаясь на статью BBC 2006 года. https://joshbersin.com/2025/10/bbc-finds-that-45-of-ai-queries-produce-erroneous-answers/
Perplexity заявила, что суррогатное материнство «запрещено законом» в Чехии — хотя там оно вообще не регулируется. Gemini исказила закон о вейпах, заявив, что покупка станет незаконной, хотя запрещались только продажа и поставка. Эксперт Джош Берсин провел эксперимент: попросил ChatGPT проанализировать инвестиции в AI-дата-центры — и получил вывод, что AI-инженеров в США больше, чем всех работающих людей.
Проблема фундаментальная: когда даже 2% входных данных неточны, множество запросов дают плохие результаты. А OpenAI и Google уже переводят AI на рекламную бизнес-модель — так что доверять этим системам становится только опаснее.
Deepfake-мошенники украли $897 млн за полгода
За первые 6 месяцев 2025 года зафиксировано 580 deepfake-инцидентов — это в 4 раза больше, чем за весь 2024 год. Всего 15 секунд аудио — и мошенники могут клонировать любой голос через ElevenLabs, Speechify или Resemble AI. Теперь они меняют лицо, голос, пол и расу в реальном времени на видеозвонках через DeepFaceLive, Magicam и Amigo AI. https://www.scamwatchhq.com/deepfake-deception-the-897-million-ai-scam-revolution-threatening-everyone-in-2025/
Больше 50% мошенничества уже использует искусственный интеллект, а 1 из 20 провалов верификации личности связан с deepfake-атаками. В США доля deepfake-мошенничества выросла с 0.2% до 2.6% между 2022 и началом 2023 — и продолжает расти.
Самый громкий случай: британская инжиниринговая компания Arup потеряла $25 миллионов после видеоконференции, где deepfake-версии CFO и других сотрудников убедили реального работника сделать 15 переводов на сумму $26 млн. Это не предзаписанное видео — это реалтайм-дипфейк, который импровизирует и адаптируется на лету.
Юристы подают документы с AI-галлюцинациями
Крупная юридическая фирма в США «глубоко смущена»: их адвокат подал судебный документ, созданный с помощью AI, который полон фейковых цитат и ссылок. Фирма извинилась перед судьей и приняла любые санкции. После этого они обновили политику использования AI — но это уже после того, как репутация пошла под откос. https://neworleanscitybusiness.com/blog/2025/10/30/ai-legal-errors-cautions/
«Homeless man prank» не утихает
Полиция США продолжает получать 911-звонки из-за AI-пранка: подростки генерят изображения «бездомного мужчины» и шлют родителям с текстом «он зашел в дом». Департаменты в Мичигане, Нью-Йорке, Висконсине и Массачусетсе выпустили официальные предупреждения: пранк «глупый и потенциально опасный». https://abc11.com/post/ai-homeless-man-prank-police-issue-new-warning-trend-faking-intruder-home/18018899/
Полиция Йонкерса (Нью-Йорк) объяснила проблему: «Офицеры мчатся с мигалками и сиренами, думая, что это реальный взломщик — и только потом выясняют, что это шутка. Это не просто трата ресурсов — это реальный риск для офицеров и семей, если мы ворвемся в дом до того, как пранк раскроется».
Представитель Colorado Coalition for the Homeless добавила: «Бездомные гораздо чаще становятся жертвами насилия, чем нападающими. Этот пранк усиливает стигму, представляя их как угрозу». https://www.forbes.com/sites/lesliekatz/2025/10/17/viral-ai-homeless-man-prank-condemned-by-police-and-advocacy-groups/
Почти все компании теряют деньги на AI
Исследование EY показало: почти каждая крупная компания, внедрившая AI, понесла первоначальные финансовые потери. Причины: провалы в соответствии нормам, ошибочные выводы, предвзятость алгоритмов и нарушение целей устойчивости. Банк Англии предупредил: пока дата-центры финансируются крупнейшими компаниями, скоро начнется растущая зависимость от долга — а если AI не оправдает ожиданий, риски взлетят. https://www.nytimes.com/2025/10/31/technology/ai-spending-accelerating.html
Си Цзиньпин хочет контролировать глобальный AI
На саммите APEC китайский лидер предложил создать Всемирную организацию сотрудничества по искусственному интеллекту, которая установит правила управления и превратит AI в «общественное благо». Это прямой вызов США: Китай позиционирует себя как альтернатива в торговом сотрудничестве и технологическом лидерстве. APEC приняла декларации об AI и демографических изменениях — а Си получил центральную сцену для продвижения своей геополитической повестки. https://www.reuters.com/world/china/chinas-xi-pushes-global-ai-body-apec-counter-us-2025-11-01/
В итоге
AI врет в 45% случаев, но индустрия продолжает тратить миллиарды. Deepfake-мошенники заработали почти миллиард за полгода. Юристы подают документы с фейковыми ссылками. Подростки троллят родителей и отвлекают полицию. Компании теряют деньги на внедрении AI. А Китай хочет создать глобальную организацию, чтобы контролировать правила игры.
Мы живем в мире, где половина AI-ответов — ошибка, а другая половина — потенциальное мошенничество. И все делают вид, что это нормально.


