От помощника до угрозы: как ИИ влияет на нашу жизнь и что с этим делать
Чем опасен для человечества ИИ, выяснил корреспондент РИА VladNews

Современные нейронные сети способны генерировать текстовый контент, оказывать поддержку научным исследованиям, создавать художественные произведения и преобразовывать фотографии в мультипликационные изображения. Искусственный интеллект демонстрирует превосходство над человеческим интеллектом, особенно в скорости обработки значительных объемов информации.
Несомненно, ИИ представляет собой ценный инструмент для человека, применимый как в профессиональной деятельности, так и в сфере развлечений. Однако его потенциал вызывает опасения, поскольку машины, обладающие не только способностью к обработке данных, но и к самообучению, могут создавать и определенные трудности. Некоторые из этих проблем уже проявляются в настоящее время. Но чем опасен искусственный интеллект на самом деле, сегодня, в ближайшем и отдаленном будущем, насколько серьезны риски? Это выяснял корреспондент РИА VladNews.
Итак, искусственный интеллект – это инструмент, которым пользуется человек. И который был создан человеком. ИИ обрабатывает данные со скоростью, недоступной даже гению, у него отличная память и способность к самообучению. Но при всем этом ИИ – просто программа, которая работает по строго определенному алгоритму. Она становится умнее – но только благодаря человеку. И человек же может сделать её глупее. Или ограничить развитие. Или даже уничтожить – сценариев много, и не все они пессимистичны для человека.
«Искусственный интеллект представляет собой имитацию человеческого интеллекта машинами, особенно компьютерными системами, для выполнения различных задач, таких как обучение, рассуждение, восприятие и принятие решений. Традиционные цели исследований в области искусственного интеллекта включают представление знаний, планирование, обработку естественного языка и поддержку робототехники. Эта область, основанная в 1956 году, прошла через периоды оптимизма и разочарований, известные как “зимы искусственного интеллекта”, но в настоящее время переживает значительный подъём благодаря развитию машинного обучения и нейронных сетей», – рассказал начальник отдела «Центр беспилотных летательных аппаратов» МТУСИ Сергей Симонов.
По его словам, искусственный интеллект можно разделить на узкий (ANI) и общий (AGI) интеллект.
«Узкий ИИ сосредоточен на выполнении конкретных задач, таких как распознавание изображений, в то время как общий ИИ, теоретически, способен выполнять любые интеллектуальные задачи, как человек. На 2025 год большинство систем искусственного интеллекта относятся к узкому ИИ, но исследования в области общего ИИ продолжаются, что поднимает вопросы о будущем развитии технологий», - уточнил Сергей Симонов.
На сегодняшний день ИИ задействован, практически, во всех сферах человеческой деятельности. Например, в медицине ИИ помогают в оперативной идентификации болезней, скрупулёзно изучая медицинские снимки. В финансовой индустрии, ИИ-алгоритмы служат для обнаружения неправомерных транзакций. Эти случаи показывают, что искусственный разум проникает в рутинные процедуры, оптимизируя их. Помимо этого, ИИ внедряется в не столь явные сектора, например, в агропромышленности, где он следит за состоянием урожая посредством дронов, и в индустрии досуга, где он формирует индивидуальные советы для потребителей на различных платформах.
«Несмотря на преимущества, использование искусственного интеллекта (ИИ) сопряжено с рядом рисков, которые требуют внимания. Искусственный интеллект способен воспроизводить предубеждения, которые содержатся в обучающих данных. Например, алгоритмы, используемые для подбора персонала, могут отдавать предпочтение мужчинам или представителям определённой расы, если такие предубеждения присутствуют в обучающих данных. Автоматизация может привести к сокращению рабочих мест, особенно в областях, где преобладают рутинные задачи. Искусственный интеллект обрабатывает огромные объёмы данных, что повышает риск утечки информации и её неправомерного использования. Существует вероятность того, что высокоразвитый искусственный интеллект, особенно искусственный общий интеллект (AGI), может выйти из-под контроля», – сказал начальник отдела «Центр беспилотных летательных аппаратов» МТУСИ.
Все эти риски акцентируют важность соблюдения этических норм и введения жёстких мер контроля. В качестве примера можно привести принятый Европейским союзом в 2023 году Акт об искусственном интеллекте, направленный на создание общей нормативно-правовой базы для использования искусственного интеллекта. Его сфера действия охватывает все отрасли (кроме военной) и все виды искусственного интеллекта.
Однако, стоит ли бояться искусственного интеллекта? Этот вопрос все еще остается открытым. ИИ это пока еще что-то неизвестное, а боязнь неизвестного заложена в психике человека, как один из механизмов выживания. И пока искусственный интеллект не станет привычным, понятным для общества явлением, его будут бояться. В том числе, и придумывая различные сценарии из серии «восстания машин».
Но технология может быть опасной не в теории, а на практике – как инструмент, который можно использовать и в благих, и в дурных целях. Уже сейчас можно назвать основные угрозы ИИ:
- Ухудшение когнитивных способностей человека. Зачем самостоятельно решать задачу, если это можно поручить нейросети? Задача будет решена, и решена правильно. Но мозг не получит должной нагрузки, соответственно, не будет развиваться. А интеллектуальные способности нуждаются в постоянном развитии, или, как минимум, поддержке существующего уровня. Без нагрузки человеческий мозг «расслабляется». Это особенно опасно для молодых людей и подростков. Эксперты уже давно утверждают, что человечество стремительно глупеет из-за достижений технического процесса. Нейросети ускорят процесс.
- Наводнение сети фейками и пропагандой. Больше 60% людей не могут отличить фейк от правды, и с распространением лживой информации люди прекрасно справляются. Но с помощью нейросетей можно «штамповать» лживые новости, буквально наводнить ими Интернет – искать в лавине фейков что-то правдивое станет намного сложнее.
- Использование ИИ злоумышленниками. Если рассматривать, чем опасен искусственный интеллект для человека, эта угроза – самая реальная. Использование ИИ для отслеживания отдельных лиц или групп людей по заданным признакам может быть использовано в целях дискриминации. Мощности машин могут использовать террористы для разработки оружия или отравляющих веществ. Преступники, так или иначе, воспользуются возможностями нейросетей, и к этому нужно быть готовыми, на всех уровнях. Хотя, строго говоря, здесь нет опасности непосредственно от ИИ, опасность исходит от людей.
- Потеря рабочих мест. Реальная угроза, и она воплощается в жизнь уже сейчас – в сфере IT, менеджмента, дизайна. Нейросеть нарисует макет логотипа за несколько минут – зачем держать в штате сотрудника, который эту же задачу, с тем же качеством, выполняет за сутки.
«Вопрос о том, насколько искусственный интеллект (ИИ) облегчает жизнь, требует анализа как положительных, так и отрицательных аспектов. С одной стороны, ИИ автоматизирует множество задач, что позволяет экономить время и усилия. Например, голосовые помощники, такие как Алиса от Яндекса, помогают управлять расписанием и домашними устройствами. В профессиональной сфере ИИ анализирует данные и оптимизирует рабочие процессы. С другой стороны, существует опасение, что чрезмерная зависимость от ИИ может привести к снижению человеческих навыков, например, в решении задач или межличностном общении. Кроме того, автоматизация может привести к социальным изменениям, таким как увеличение неравенства, если выгоды от ИИ распределяются неравномерно. Исследования показывают, что баланс между использованием ИИ и сохранением человеческого контроля критически важен», – подчеркнул начальник отдела «Центр беспилотных летательных аппаратов» МТУСИ Сергей Симонов.
Стоит отметить, что ИИ это всего лишь еще один инструмент в руках человека и как мы будем его использовать зависит только от нас самих.
Автор: Анастасия Кравченко