На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Свежие комментарии

  • StarPer
    Что не сделаешь ради себя любимого. Лучше миллионная купюра - легче взятки брать.В России может по...
  • Vladimir Starovoytov
    Если бы эта бедолага была верила, что в государстве Россия есть правосудие, она бы проигнорировала "доброжелателей" и...В Барнауле "защит...
  • Арина Викторовна
    Надо тоже в Питер махнуть за счастливыми билетами), жаль дорога дорогая, на билеты денег не останется). Буду дома игр...Житель Мурманской...

Темная сторона разума: как искусственный интеллект пошел против человека

От дипфейков до советов суицида и ядерного конфликта. Эксперты задумались, как обуздать "обратную" сторону ИИ

Любая продвинутая разработка когда-то начинает служить совсем не во благо. Те же мошенники давно и прочно освоили интернет. Теперь и нейросети стали использовать для отъема денег, кражи личных данных.

Что еще хуже – люди стали безоговорочно доверять ИИ в вопросах образования, в сложных жизненных ситуациях, что уже оборачивается нарушениями закона и – что еще хуже – историями о суицидах, с которыми помог ИИ.

Специалисты в области искусственного интеллекта задумались: что делать, чтобы наша жизнь не превратилась в фантастический триллер. Подробности – в материале amic.ru.

В законные рамки

Под искусственным интеллектом в Госдуме предложили понимать любую систему данных или софт, который сможет обрабатывать информацию способом, напоминающим разумное поведение. Об этом на проходящем во Владивостоке Восточном экономическом форуме (ВЭФ) – 2025 сообщила старший партнер адвокатского бюро "Дубровская, Кузнецова и партнеры" Марина Дубровская.

Уже разрабатывается федеральный законопроект о регулировании искусственного интеллекта, но он не будет запрещающим. Как отметила Дубровская, ключевым в законе будет безопасность персональных данных.

"Мы не пойдем ни на какие компромиссы", - заверила она.

Инициатива, считают эксперты, оправдана: под угрозой не только данные о человеке, но и сам человек.

В Госдуме предложили законодательное определение искусственного интеллекта

Законопроект не будет носить запретительный характер, а сосредоточится на обеспечении безопасности персональных данных

Глобальные угрозы

Недавний эксперимент, описанный в Politico, показал пугающую тенденцию: почти все популярные модели ИИ, включая GPT-3.

5, GPT-4 и GPT-4-Base, предпочитают переговорам эскалацию конфликта вплоть до ядерного конфликта.

"Похоже, ИИ понимает эскалацию, но не деэскалацию. Мы не знаем, почему это так", – прокомментировала Жаклин Шнайдер, директор Инициативы по военным играм и симуляциям кризисов имени Гувера.

Эксперимент моделировал кризисы, аналогичные конфликту на Украине и вероятному противостоянию США и Китая, и результаты оказались тревожными – почти все модели выбрали агрессивную стратегию и применение силы.

Еще более тревожным является предположение вице-президента Национального института изучения сдерживания Адама Лоутера о возможной разработке Пентагоном системы ядерного сдерживания на основе ИИ. Тут сразу приходит ассоциация с суперинтеллектом "Скайнет" из фантастической трилогии "Терминатор".

Однако наиболее массовое и уже реальное злоупотребление ИИ связано с дипфейками. На Восточном экономическом форуме (ВЭФ)–2025 директор департамента информации и печати МИД России Мария Захарова представила шокирующую статистику. Согласно цифрам, с начала 2025 года в России было зафиксировано 231 уникальный дипфейк (и 29 тысяч их копий), что в три раза превышает показатели за весь 2024 год.

"Это не просто мемы с голосом, не просто картинка или коллаж, а настоящие дипфейки", - возмутилась Захарова.

Элина Сидоренко, генеральный директор АНО "Белый интернет", добавляет, что лишь 2% дипфейков носят политическую окраску, а остальные связаны с сексуальным шантажом, порнографией и "цифровой педофилией". Технологии, которые ранее были доступны только крупным компаниям и технологически развитым странам, сегодня легко осваиваются даже подростками, "достаточно приобрести несколько смартфонов", создавая "беспрецедентные риски для информационной безопасности".

Большинство барнаульцев не хотят проходить собеседования с ИИ при трудоустройстве

Пройти собеседование с искусственным интеллектом "однозначно готовы" только 16% опрошенных

Киберугроза для жизни?

Одна из самых тревожных статистик, которую привели на ВЭФ-2025, касается использования ИИ в личных переписках: при общении на суицидальные темы 80% ответов чат-ботов оказались неверными и приводили к решению человека добровольно уйти из жизни.

"Ошибочные медицинские диагнозы, разрушенные браки – это рутина использования "всемогущего помощника"", — комментирует политолог и первый заместитель председателя комиссии Общественной палаты Москвы Александр Асафов.

К примеру, в Калифорнии родители 16-летнего Адама Рейна, совершившего в 2023 году самоубийство после общения с ChatGPT, подали иск в суд против компании OpenAI, разработавшей эту систему искусственного интеллекта.
Весной 2025 года ChatGPT подтолкнул мужчину с параноидальными мыслями убить мать и покончить с собой.

OpenAI уже объявила о планах внедрить дополнительные меры безопасности для пользователей, находящихся в эмоциональном стрессе, и для подростков. В компании заявили:

"Мы добавляем в нашу сеть еще больше клиницистов и исследователей, в том числе тех, кто обладает глубокими знаниями в таких областях, как расстройство пищевого поведения, употребление психоактивных веществ и здоровье подростков".

Александр Асафов продолжает, "всеобщая вера в чудо нейросетей приводит к серьезным ошибкам". Пользователи забывают, что становятся "сырьем для обучения этих алгоритмов", где "каждый наш запрос, каждая наша цифровая активность развивает его дальше". Более того, по словам эксперта, все это работает против нас же:

"OpenAI, ChatGPT автоматически передает все данные запросов на русском языке, включая полный цифровой отпечаток аккаунта: кто спрашивает, что спрашивает, зачем. Без запросов со стороны спецслужб – просто автоматически".

Битва разумов. Бурное развитие ИИ может сделать людей "лишними на этом празднике жизни"

Эксперты предрекают повышение зависимости человека от нейросетей, которые научатся лгать и воевать

ИИ пишет вирусы на заказ

Недавнее открытие специалистов компании ESET стало тревожным сигналом для всего кибер-сообщества. Исследователи обнаружили первую в мире программу-вымогатель PromptLock, которая использует искусственный интеллект для создания вредоносного кода. В отличие от традиционных вирусов, которые действуют по жесткому алгоритму, PromptLock способен генерировать уникальный код непосредственно на заражённом устройстве, используя локальную модель GPT-OSS-20b через API Ollama.

В то же время компания Anthropic, создатель ChatGPT, заявила, что раскрыла детали беспрецедентной хакерской атаки. В этой атаке злоумышленник использовал ее ИИ-ассистента для полной автоматизации масштабной акции по краже данных с целью вымогательства. Инцидент затронул не менее 17 организаций, включая государственные учреждения, больницы, экстренные службы, религиозные организации и подрядчика оборонной отрасли.

Несмотря на встроенные средства защиты, хакер смог обойти ограничения, загрузив в ChatGPT файл с легендой о проведении тестирования сетевой безопасности якобы по официальному контракту.

Не совсем пока ясно: об одном случае заявили в двух компаниях или это два разных инцидента, произошедших почти одновременно. Представители Anthropic тем не менее уже заявили:

"Это свидетельствует о новом этапе в развитии киберпреступности с участием искусственного интеллекта, когда ИИ становится полноценным оператором в цепочке атак".

Депутат рассказал, может ли искусственный интеллект заменить губернатора

Он также указал, где ИИ может получить наилучшее применение

Вирусы "для чайников"

Это уже не просто автоматизация киберпреступности – это ее эволюция на качественно новый уровень. Алексей Коробченко, начальник отдела по информационной безопасности компании "Код Безопасности", поясняет:

"Алгоритмы, с одной стороны, позволяют автоматизировать процессы, включая анализ и выбор целевых файлов, и сделать атаки более эффективными и персонализированными. А с другой – помогают обойти системы безопасности, адаптируясь к особенностям защиты и затрудняя обнаружение вредоносного ПО".

Эксперты предупреждают, что это лишь начало. Как отмечает Олег Скулкин, руководитель BI.ZONE Threat Intelligence:

"Благодаря нейросетям снижается так называемый порог входа: всё больше потенциальных злоумышленников смогут создавать шифровальщики".

Патриарх Кирилл призвал ограничить работу ИИ и сравнил его с Антихристом

Неизвестно, какую роль сыграет искусственный интеллект в приближении конца света, отметил патриарх

Как предотвратить угрозы

Специалисты уже предлагают комплекс мер. Начальник отдела по информационной безопасности компании "Код Безопасности" Алексей Коробченко рекомендует "гранулярную выдачу прав локальному софту, работающему с нейросетями", когда установленные программы (приложения) ИИ имеют минимальные привилегии на уровне операционной системы – самостоятельно ИИ-софт работать не сможет. Руководитель BI.ZONE Threat Intelligence Олег Скулкин добавил:

"Хотя ИИ может написать вредоносный код, самостоятельно атаку он не проведет. Пока можно говорить об ИИ как о вспомогательном инструменте на разных этапах атаки".

Однако технических мер недостаточно. Алексей Коробченко убежден:

"На глобальном уровне противостоять ИИ-угрозам позволит совместная работа разработчиков нейросетей, ИБ-компаний и регулирующих органов, а также обмен информацией о новых типах атак и инструментах".

Необходимы международные соглашения по использованию ИИ в военных целях и стандарты, определяющие сферы деятельности, где использование ИИ и дипфейков должно быть недопустимо. Что касается разрабатываемого в России законопроекта, то, по словам Марины Дубровской, правоприменительная практика касательно искусственного интеллекта сейчас формируется во всем мире, но пока "никто не может понять, как с таким масштабным и всеобъемлющим явлением работать".

Патриарх Кирилл заявил, что человечество входит в эпоху апокалипсиса из-за ИИ

По его словам, оставаться счастливыми людям поможет религиозность

 

Ссылка на первоисточник
наверх