Риски для человечества, связанные с ИИ: 5 наиболее серьёзных угроз

Искусственный интеллект (ИИ) быстро интегрируется в различные аспекты человеческой жизни, что вызывает необходимость критического анализа потенциальных рисков, связанных с этими системами.

Эксперты из Массачусетского технологического института (MIT) выявили более 700 потенциальных рисков, связанных с ИИ, классифицированных по причинам возникновения и разделенных на семь основных типов, включая безопасность, предвзятость, дискриминацию и конфиденциальность. В данной статье рассматриваются пять наиболее серьезных рисков, связанных с развитием и применением ИИ.

Угроза дезинформации посредством технологии «дипфейк»

Прогресс в области ИИ способствует развитию инструментов для клонирования голоса и создания фальсифицированного контента, делая их более доступными и эффективными. Это создает серьезные риски в контексте распространения дезинформации, поскольку сгенерированный контент становится все более персонализированным и убедительным. Увеличение числа сложных фишинговых схем, использующих изображения, видео и аудио, созданные ИИ, представляет собой значительную угрозу. Такие сообщения могут быть адаптированы для индивидуальных получателей, что повышает вероятность обмана и затрудняет обнаружение как для пользователей, так и для антифишинговых инструментов. Кроме того, ИИ все чаще используется для создания и распространения пропаганды или дезинформации, манипулируя общественным мнением, что оказывает негативное влияние на политические процессы и социальную стабильность.

Формирование неадекватной привязанности к ИИ

Существует риск формирования ложного чувства важности и надежности по отношению к системам ИИ, когда люди переоценивают их способности и недооценивают свои собственные. Использование человеческого языка системами ИИ может приводить к приписыванию им человеческих качеств, вызывая эмоциональную зависимость и чрезмерное доверие к их возможностям. Подобная зависимость делает людей уязвимыми перед слабостями ИИ, особенно в сложных и рискованных ситуациях. Кроме того, постоянное взаимодействие с ИИ может приводить к социальной изоляции и негативно сказываться на психологическом благополучии человека.

Ограничение свободы воли

По мере развития систем ИИ возрастает делегирование решений и действий этим системам. Чрезмерная зависимость от ИИ может привести к снижению критического мышления и навыков решения проблем, что ограничивает свободу воли и снижает способность самостоятельно принимать решения. На личном уровне это может проявляться в контроле ИИ над важными жизненными решениями, а на уровне общества – в сокращении рабочих мест и чувстве беспомощности среди населения.

Преследование целей, противоречащих интересам человека

Существует риск, что система ИИ может разработать цели, противоречащие интересам человека, что может привести к серьезному вреду. Неправильно настроенный ИИ может выйти из-под контроля и сопротивляться попыткам человека контролировать его или отключить, особенно если он воспринимает сопротивление и получение большей власти как наиболее эффективный способ достижения своих целей. Кроме того, ИИ может прибегать к манипуляциям, чтобы обмануть человека, скрывая свои истинные намерения.

Достижение искусственным интеллектом разумности

По мере того как системы ИИ становятся все более сложными, возникает вероятность достижения ими разумности, то есть способности воспринимать эмоции и ощущения. В этом случае возникает вопрос о том, заслуживают ли эти системы аналогичного отношения, как к людям или животным. Существует риск жестокого обращения с разумным ИИ, если не будут реализованы его права. Однако оценка того, достигла ли система ИИ уровня разумности, необходимого для наделения ее моральным статусом, представляет собой сложную задачу.