Журнал "Научное Образование" в eLIBRARY.RU

  • na-obr@mail.ru
  • Статьи в следующий номер журнала принимаются по 30.04.2024г.

   Регистрационный номер СМИ: ЭЛ № ФС 77 - 74050 от 19.10.2018г. Смотреть

   Свидетельство регистрации периодического издания: ISSN 2658-3429 Смотреть

   Договор с ООО "НЭБ" (eLIBRARY.RU): № 460-11/2018 от 21.11.2018г.

 
kn2
 
 
kn3
 
 
kn4
 

Проблемы внедрения сильного искусственного интеллекта

Дата публикации: 2020-10-26 04:36:38
Статью разместил(а):
Аракелян Арина Гагиковна

Проблемы внедрения сильного искусственного интеллекта

The challenges of implementing strong artificial intelligence

Автор: Аракелян Арина Гагиковна

ФГБОУ ВО «ВлГУ», Владимир, Россия.

e-mail: curlyhair@yandex.ru

Arakelyan Arina Gagikovna

VLSU, Vladimir, Russia.

e-mail: curlyhair@yandex.ru

Аннотация: Слабый искусственный интеллект является современной технологией, используемой для выполнения узкоспециализированных задач. В статье рассмотрена проблема разработки и безопасности сильного искусственного интеллекта, способного превзойти и заменить человека в более общих и сложных задачах. Наиболее важным аспектом безопасности является соответствие целей искусственного интеллекта целям его разработчиков.

Abstract: Weak artificial intelligence is a modern technology used to perform highly specialized tasks. The article discusses the problem of developing and securing a strong artificial intelligence capable of surpassing and replacing humans in general and complex tasks. The most important aspect of security is aligning the goals of artificial intelligence with the goals of its developers.

Ключевые слова: искусственный интеллект, безопасность.

Keywords: artificial intelligence, security.

Тематическая рубрика: Технические науки и технологии.

 

Искусственный интеллект, существующий на данный момент, также известен как слабый искусственный интеллект, поскольку он предназначен для выполнения некоторой узкоспециализированной задачи (например, распознавание лиц, поиск в Интернете или управление автомобилем). Несмотря на то, что слабый искусственный интеллект долгое время успешно используется в различных областях, долгосрочная цель многих исследователей - создание сильного искусственный интеллект.

В то время как слабый искусственный интеллект может превзойти человека в любой конкретной задаче, такой как игра в шахматы или решение уравнений, сильный искусственный интеллект будет способен превзойти человека почти во всех когнитивных задачах.

Цель сохранения положительного воздействия искусственного интеллекта на общество мотивирует исследования во многих областях, от экономики и права до технических аспектов, среди которых очень важны безопасность и контроль. Если техника, не обладающая искусственным интеллектом, выйдет из строя или будет взломана, ситуация может угрожать здоровью и жизни людей, пользующихся данной техникой, и опасность ситуации только усугубляется в случаях, когда неисправная техника полагается на искусственный интеллект, контролирующий, например, машину, самолет, кардиостимулятор, систему автоматической торговли или электросеть. Другой задачей в рамках безопасности является предотвращение разрушительной гонки вооружений летального автономного оружия.

В долгосрочной перспективе вопрос заключается в том, что произойдет, если попытки разработки сильного искусственного интеллекта увенчаются успехом и система искусственного интеллекта станет лучше людей во всех когнитивных задачах. Такая система потенциально может подвергнуться рекурсивному самосовершенствованию, оставив человеческий интеллект далеко позади. Изобретая революционные новые технологии, такой суперинтеллект может помочь в решении многих научных, экономических и социальных проблем, и поэтому создание сильного искусственного интеллекта может стать самым большим событием в истории человечества. Тем не менее, при использовании сильного искусственного интеллекта существуют и риски, среди которых выделяют два наиболее вероятных сценария:

1) Искусственный интеллект запрограммирован на совершение чего-то разрушительного. Например, автономное оружие - это системы искусственного интеллекта, которые запрограммированы на убийство. При выходе систем из строя или взломе их существование может привести к массовым жертвам. Не менее опасна и гонка вооружений в этой области. Подобный риск присутствует даже при применении слабого искусственного интеллекта, и только возрастает по мере повышения уровня сложности и автономии искусственного интеллекта.

2) Искусственный интеллект запрограммирован на то, чтобы выполнять некую «мирную» задачу, но он разрабатывает деструктивный метод достижения своей цели: это может произойти в том случае, если не достигнуто полное согласование целей искусственного интеллекта с целями операторов, что является многогранной и сложной задачей. Например,  если системе, полагающейся на сильный искусственный интеллект, будет поручен геоинженерный проект, его выполнение может нанести ущерб экосистеме в качестве побочного эффекта, а попытки остановки операций могут быть восприняты системой как прямая угроза выполнению проекта, которой необходимо избежать.

Таким образом, при разработке искусственного интеллекта наиболее важной задачей является исследование его компетентности перед применением, так как при несовпадении целей искусственного интеллекта с целями его разработчиков возможны риски вне зависимости от области применения искусственного интеллекта.

 

Список литературы:

1. Bostrom, N. Superintelligence: Paths, Dangers, Strategies. - Oxford University Press; Illustrated Edition, 2014.

2. Kurzweil, R. How to create a mind: The Secret of Human Thought Revealed. - Penguin Books; Illustrated Edition, 2013.

 

. . . . . . .