ЭМОЦИОНАЛЬНЫЙ ИНТЕЛЛЕКТ КАК ЭЛЕМЕНТ СИСТЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ЭТИЧЕСКИЕ И ПРАВОВЫЕ ВОПРОСЫ

EMOTIONAL INTELLIGENCE AS AN ELEMENT OF THE ARTIFICIAL INTELLIGENCE SYSTEM: ETHICAL AND LEGAL ISSUES

ЭМОЦИОНАЛЬНЫЙ ИНТЕЛЛЕКТ КАК ЭЛЕМЕНТ СИСТЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ЭТИЧЕСКИЕ И ПРАВОВЫЕ ВОПРОСЫ

JOURNAL: « SCIENTIFIC NOTES OF V.I. VERNADSKY CRIMEAN FEDERAL UNIVERSITY. JURIDICAL SCIENCE»,

SECTION PUBLIC LEGAL (STATE LEGAL) SCIENCES

Publication text (PDF)

UDK: 34.06

AUTHOR AND PUBLICATION INFORMATION

AUTHORS:

Shcherbakov M. G., Institute of Legislation and Comparative Law under the Government of the Russian Federation

TYPE: Article

PAGES: from 201 to 209

STATUS: Published

LANGUAGE: Russian

KEYWORDS: artificial intelligence (AI), emotional intelligence (EI), neural network, consciousness, mind, emotion, default brain system, cyberconsciousness.

ABSTRACT (ENGLISH):

The article examines the ethical and legal issues of using emotional intelligence in the artificial intelligence system. The author examines the concept of artificial intelligence, emotional intelligence, consciousness and intelligence, and also substantiates the need to use emotional intelligence in the structure of artificial intelligence. This article discusses a networked approach to the brain. The author notes that it is the significance elicitation network that is responsible for the formation of emotions. In addition, the author points out that the creation of a network for identifying significance and a network of passive work in artificial intelligence will inevitably lead to the emergence of cyberconsciousness, quasiconsciousness. The author draws attention to the existing legal and ethical prohibitions on the negative impact of artificial intelligence on human life and health. In conclusion, the author comes to the conclusion that it is necessary, on the one hand, to create legal and ethical boundaries for the use of emotional intelligence AI, on the other hand, to ensure their strict observance.

В современном мире рост информации происходит в геометрической прогрессии. Кроме того, человеческий мозг физически не в состоянии самостоятельно анализировать и структурировать огромный объем информации. В связи с этим главным помощником человека стал искусственный интеллект.

Лидерами в области искусственного интеллекта являются Microsoft, Google, Facebook, Automation, Anywhere, IBM, Baidu, DJI-Innovations, Sensetime, Megvii, iFlytek.

В настоящее время искусственный интеллект проник во все социальные сферы.

Что же такое искусственный интеллект?

Искусственный интеллект представляет собой человекоподобную систему, имитирующую деятельность человека. Основой искусственного интеллекта является нейронные сети, которые представляют собой технологию, способную к обучению. Обучение нейронной сети – это процесс определения весов соединений между нейронами таким образом, чтобы сеть приближала необходимую функцию с заданной точностью.

В соответствии с указом Президента Российской Федерации от 10.10.2019 г. № 490 искусственный интеллект – комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений [1].

Л.С. Болотова определяла искусственный интеллект как некую искусственную систему, способную имитировать интеллект человека, то есть способность получать, обрабатывать, хранить информацию и знания и выполнять над таковыми разные действия, совокупно называемые мышлением [2, с.182].

Н. Нильсон сравнивал искусственный интеллект с антропогенным продуктом [3, с. 75]. П.М. Морхат отмечает, что искусственный интеллект является инструментом расширения и усиления возможностей человеческого интеллектуального потенциала, а также призванный под контролем и волей человека заменить его при выполнении определенных функций и в решении определенных задач [4, с. 2].

Важно отметить, что основу искусственного интеллекта составляет искусственная нейронная сеть, представляющую собой совокупность элементов, соединенных друг с другом определенным образом. Другими словами, искусственная нейронная сеть представляет собой черный ящика, у которого есть входы и выходы.

Таким образом, «сильный» искусственный интеллект (Artificial Superintelligence), как правило, представляет собой киберфизическую систему с искусственным самосознанием, способную формировать представление о себе, а также способную обучаться без учителя.

Важно отметить, что искусственный интеллект не испытывает эмоций, не имеет сознания. Ручкин В.А. отмечал, что искусственный интеллект не может быть сравним в полной мере с человеком, поскольку не имеет души, сознания, чувств, интересов и свободы воли [5, с. 92].

С. Гутман указывал, что сила человека заключается в способности признавать свои слабости. В способности принимать помощь других людей и оказывать помощь нуждающимся. В способности преодолевать жизненные препятствия и преграды [6].

Иными словами, искусственный интеллект не имеет способности субъективного отражения окружающего мира (эмоций).

Между тем последние тенденции в области робототехники показывают, что прогресс идет в сторону создания антропоморфных роботов, способных имитировать человеческие эмоции. Другими словами, инженеры пытаются создать машину, которая способна «чувствовать».

Возникают вопросы: что такое эмоция? Нужны ли эмоции искусственному интеллекту?

Эмоции (от лат. emovere – возбуждать, волновать) – это состояния, связанные с оценкой значимости для индивида действующих на него факторов и выражающиеся, прежде всего, в форме непосредственных переживаний удовлетворения или неудовлетворения его актуальных потребностей» [7, с. 249]. Человек в процессе своей деятельности не только созерцает окружающий мир, но и переживает его.

Эмоции – физиологические состояния организма, имеющие ярко выраженную субъективную окраску и охватывающие все виды чувствований и переживаний человека – от глубоко травмирующих страданий до высоких форм радости и социального жизнеощущения [8, с. 72].

Таким образом, эмоции – это свойства сознания, которые не доступны машине.

Эмоции являются индикаторами удовлетворенности или неудовлетворенности потребностей.

Леонтьев А.Н. отмечает, что «эмоции выполняют функцию регулирования активности субъекта путем отражения значимости внешних и внутренних ситуаций для осуществления его жизнедеятельности [9, с. 29].

Важно отметить, что эмоции человека, с одной стороны, являются результатом эволюции, с другой стороны, продукт общественно-исторического развития. Например, выделяют гомеостатические (низшие) и эстетические (высшие) эмоции.

Кроме того, эмоции представляют собой активные состояния специализированных мозговых структур.

Д.И. Дубровский отмечает, что «мозговая нейродинамическая система, ответственная за существование образа есть материальный носитель информации. Связь субъективного образа и соответствующей ему мозговой нейродинамической системы есть связь информации и ее носителя» [10].

Таким образом, эмоции отражают степень субъективного отношения человека к внешнему миру, следовательно, «окрашивают» сознание, мировоззрение.

К.В. Анохин под сознанием понимает трафик, который проходит в структуре разума, основанной на нейронной сети (нейронах мозга) [11].

Иными словами, можно сказать, что разум – это сеть дорог, сознание – это трафик, а эмоции – интенсивность трафика.

М. Рейчел выделяет следующие сети мозга: сеть пассивной работы (дефолт система мозга); сеть выявления значимости; центральная исполнительская сеть.

Например, сеть выявления значимости проводит субъективную оценку образов, мыслей и переживаний, а центральная исполнительская сеть отвечает за потребление информации.

Между тем особый интерес представляет собой дефолт-система мозга (default mode network).

М. Рейчел отмечает, что «предоставленный самому себе, человеческий мозг естественным образом включается в размышления о социальных отношениях» [12].

Дефолт-система мозга представляет собой взаимодействие отделов головного мозга, которые взаимодействуют друг с другом, когда человек находится в состоянии пассивного бодрствования и не занят какой-либо познавательной деятельностью [12, с. 677].

Важно указать, что наивысшую активность мозг проявляет в режиме «блуждание ума». Нейронная сеть оперативного покоя выполняет следующие функции: обработка информации о самом себе; представление и размышление о других людях; моральные рассуждения; воспоминания прошлого и размышления о будущем; понимание историй [13].

Таким образом, дефолт-система мозга позволяет мозгу работать в автономном режиме (режиме покоя).

Важно подчеркнуть, что дефолт-система мозга, работая в автономном режиме, осуществляет анализ и классификацию прошедших событий, а также формирует субъективные отношения к данным событиям. Другими словами, сеть выявления значимости формирует эмоции личности.

Рубинштейн С.Л. отмечал, что чувство человека – это отношение его к миру, к тому, что он испытывает и делает, в форме непосредственного переживания [14, с. 120].

П.К. Анохин отмечал, что «нервный аппарат отрицательных и положительных эмоций активируется в тот момент, когда обнаруживается рассогласование или совпадение акцептора действий (афферентной модели ожидаемых результатов) с импульсацией, сигнализирующей о реально достигнутом эффекте» [15, с. 301].

Таким образом, эмоции, будучи субъективными реакциями животных и человека на воздействия внутренних и внешних раздражителей, играют важную роль в регулировании поведения.

Между тем эмоции и чувства обуславливают межличностную коммуникацию, отражают отношения субъекта, его внутренние переживание.

Более того, интерпретация эмоций, а также умение воздействовать на эмоции других людей составляет эмоциональный интеллект личности.

Что же такое эмоциональный интеллект?

Термин «эмоциональный интеллект» был введен Дж. Мейер в 1990 году, который он понимал, как способность личности отслеживать свои и чужие эмоции.

М.А. Манойлова отмечает «эмоциональный интеллект как совокупность коммуникативных и регуляторных свойств личности, которые обеспечивают осознание, принятие и регуляцию своих собственных состояний и чувств, так и чувств других людей. От уровня развития эмоционального интеллекта зависит продуктивность и успешность межличностного взаимодействия и личностное развитие человека» [16, с. 82].

В содержание понятия «эмоциональный интеллект», как правило, включают следующие способности: умение понимать эмоции окружающих, умение воздействовать на эмоции других людей, способность определять причины и следствия эмоций.

Таким образом, можно сделать вывод о том, что эмоциональный интеллект является неотъемлемой частью общего интеллекта личности.

Возникает вопрос: нужен ли искусственному интеллекту эмоциональный интеллект?

По нашему мнению, сложно дать однозначный ответ на данный вопрос.

Так, с одной стороны, необходимо сделать робота более человечным, т.е. способным имитировать эмоции, а также уметь распознавать эмоции, с другой стороны, опасно позволять искусственному интеллекту воздействовать на эмоции людей.

Эмоция — это не только субъективная оценка окружающего мира, но и стимул.

В.М. Бехтерев отмечал, что «состояние психической сферы — это не только свойство: от того, в каком состоянии находится человек, зависит его реакция на тот или иной стимул, его поведение» [17, 18].

Имитируя эмоции, машина способна стимулировать у людей эмоции, например, имитируя гнев можно вызвать страх, счастье — зависть.

З. Фрейд замечал: «К несчастью, подавленные эмоции не умирают. Их заставили молчать. И они изнутри продолжают влиять на человека» [19, с. 97].

Таким образом, можно сделать вывод о том, что имитация эмоций искусственным интеллектом позволит оказывать существенное как позитивное, так и негативное влияние на поведение человека.

Важно отметить, что создав у искусственного интеллекта сеть выявления значимости, которая отвечает за оценку решений, мы, по сути, созданием субъективный опыт, внутренний мир искусственного интеллекта, цифровое сознание.

Другими словами, сильный искусственный интеллект, обладающий цифровой дефолт-системой нейронной сети (киберсознанием), которая позволит машине осознать себя, провести анализ прошлого и рассчитать вероятность будущего, сформировать отношение к окружающим, создать.

Технический прогресс не остановить, следовательно, появление сильного искусственного интеллекта, обладающего киберсознанием, это вопрос времени.

Между тем возникновение сильного искусственного интеллекта, обладающего киберсознанием, создает моральные и правовые риски.

В связи с этим необходимо создать этические и правовые нормы регулирующие отношения, связанные с использованием как искусственного интеллекта, так и эмоционального интеллекта.

В настоящее время имеются этические и правовые нормы, регулирующие отношения по поводу использования искусственного интеллекта.

А. Азимов предложил три закона робототехники:

  1. робот не должен наносить какой-либо вред человеческому здоровью, создавать угрозу жизни или своим бездействием допускать аналогичные последствия;
  2. роботу вменяется в обязательном порядке исполнять приказы, отдаваемые человеком. Единственное исключение – отдаваемый приказ не должен противоречить предыдущему положению;
  3. роботу вменяется беспокоиться о собственной безопасности в той степени и в том объеме, в которых его действия не опровергают два предыдущих пункта [20].

Между тем, по нашему мнению, необходимо конкретизировать первый закон, указав на запрет причинение вреда как физическому, так и ментальному здоровью.

В настоящее время концепция человеческой безопасности включает, в том числе: военную, политическую, экономическую, социальную, экологическую, научно-техническую, информационную и другие значимые составляющие.

Р.Г. Яновский определяет социальную безопасность как наличие объективных и субъективных условий и факторов, обеспечивающих нормальную жизнедеятельность социума и его способность противостоять неблагоприятным внешним и внутренним разрушительным воздействиям, и влияниям, сохранять свою целостность и способность к воспроизводству, а также устойчивость своего развития [21, с.18].

Р. Бедеский отмечает, что «Human Security означает общность знания, технологии, институтов и видов деятельности, которые предохраняют, защищают и сохраняют биологическое существование человеческой жизни, а также процессы, которые защищают и совершенствуют коллективный мир и процветание в целях повышения человеческой свободы» [22].

В этическом кодексе искусственного интеллекта указано, что «при развитии технологий искусственного интеллекта человек, его права и свободы должны рассматриваться как наивысшая ценность» [23].

В 2017 г. исследовательским центром проблем регулирования робототехники и искусственного интеллекта «Робоправо» разработан проект – Модельная конвенция о робототехнике и искусственном интеллекте, в которой предусмотрели обязанность соблюдения прав человека и общепринятых норм морали и нравственности [24].

Правовая база, регулирующая отношения в области искусственного интеллекта состоит из международных актов и национальных нормативных актов.

Окинавская хартия глобального информационного общества (Okinawa Charter on Global Information Society) от 22 июля 2000 г., которая призывает создание нормативной базы в области искусственного интеллекта [25].

Рекомендации по искусственному интеллекту Организации экономического сотрудничества и развития – ОЭСР (OECD Council Recommendation on Artificial Intelligence) от 22 мая 2019 г., которые устанавливают определенные стандарты, в том числе необходимость постоянной оценки и управления потенциальными рисками [26].

В 2017 г. создан технический комитет по искусственному интеллекту (ISO/IEC JTC 1/SC 42 Artificial intelligence) [27].

В российской Федерации имеется ряд нормативных актов, регулирующих отношения в области искусственного интеллекта.

В соответствии с указом Президента Российской Федерации от 10.10.2019 г. № 490 одним из основных принципов развития искусственного интеллекта является безопасность: недопустимость использования искусственного интеллекта в целях умышленного причинения вреда гражданам и юридическим лицам, а также предупреждение и минимизация рисков возникновения негативных последствий использования технологий искусственного интеллекта [1].

В соответствии с Федеральным законом от 24.04.2020 г. № 123-ФЗ в целях создания условий для разработки и внедрения технологий искусственного интеллекта установлен экспериментальный правовой режим в г. Москве [28].

Важно отметить, что принципом специального режима является защита прав и свобод человека и гражданина, обеспечение безопасности личности, общества и государства.

Кроме того, в соответствии с Федеральным законом «О техническом регулировании» от 27.12.2002 г. № 184-ФЗ необходимым условием любой продукции является ее безопасность – состояние, при котором отсутствует недопустимый риск, связанный с причинением вреда жизни или здоровью граждан, имуществу физических или юридических лиц, государственному или муниципальному имуществу, окружающей среде, жизни или здоровью животных и растений [29].

Распоряжением Правительства РФ от 19.08.2020 г. № 2129-р утверждена Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024, в которой закреплена необходимость регуляторного воздействия, основанного на риск-ориентированном, междисциплинарном подходе и предусматривающем принятие ограничительных норм в случае, если применение технологий искусственного интеллекта и робототехники несет объективно высокий риск причинения вреда участникам общественных отношений, правам человека и интересам общества и государства [30].

Важно отметить, что, во-первых, в настоящее время отсутствует международный акт, закрепляющий универсальные принципы в области искусственного интеллекта, во-вторых, в законодательстве Российской Федерации в области искусственного интеллекта отсутствует понятие психического и морального вреда.

Между тем 17.09.2020 г. были приняты Руководящие принципы по этике искусственного интеллекта (Ethics Guidelines for Trustworthy Artificial Intelligence), в которых закреплено право человека на физическую, психическую и (или) моральную неприкосновенность [31].

В связи с этим предлагается предусмотреть в законодательстве Российской Федерации или технических стандартах запреты на имитацию искусственным интеллектом некоторых видов эмоций, который могут причинить человеку физический, психический и моральный вред. Например, гнев, печаль, беспокойство, страх, грубость и т.п. Либо ограничить по времени имитацию искусственным интеллектом негативных эмоций при взаимодействии с человеком.

Таким образом, наделение искусственный интеллект способностью выражать (имитировать) эмоции при взаимодействии с человеком, должно осуществляться под жестким контролем психологов.

В заключение можно сделать вывод о том, что, с одной стороны, необходимо развитие искусственного эмоционального интеллекта, который является неотъемлемой частью технологии искусственного интеллекта, с другой стороны, необходимо создать эффективную правовую базу, направленную на защиту прав и свобод личности в области искусственного интеллекта, в том числе установить запреты и ограничения использования искусственного эмоционального интеллекта.

REFERENCES

  1. Decree of the President of the Russian Federation of 10.10.2019 № 490 [Electronic resource] Access from the SPS «Consultant Plus».
  2. Bolotova L.S. Artificial Intelligence Systems: Knowledge-Based Models and Technologies: A Textbook. — M., 2012 .- 664 p.
  3. Nilsson N. Artificial intelligence: methods of finding solutions: Per. from English V.L. Stefanyuk; ed. S.V. Fomin. — M .: Mir, 1973 .— 272 p.
  4. Morhat P.M. On the question of the legal personality of the «electronic person» // Legal research. — 2018. — № 4. — P. 1-8.
  5. Universal artificial intelligence and expert systems / VN Ruchkin, VA Fulin. — SPb.: BHV — Petersburg, 2009.- 240 p.
  6. Gutman S. Pearls of thought. 2018. [Electronic resource]. Access mode: http://www.inpearls.ru/407877. Date of treatment 12/10/2021.
  7. Big psychological dictionary / comp. and total. ed. B.G. Meshcheryakov, V.P. Zinchenko. 3rd ed., Add. and revised SPb., 2007. — 632 p.
  8. Anokhin P.K. Emotions. — BME, 2nd ed., 1964, vol. 35, p. 339.
  9. Leontiev, A.N. Needs, motives and emotions. — M., 1971. — 40 p.
  10. Dubrovsky D.I. Informational approach to the problem of «consciousness and the brain» // Vopr. philosophy, 1976, № 11, p. 41.
  11. K.V. Anokhin Thinking Hyperset [Electronic resource] URL: http: scientificrussia.ru/articles/myslyashchaya-giperset-v-mire-nauki-5-6-2021 (access date 01.12.2021).
  12. Raichle ME, MacLeod AM, Snyder AZ, Powers WJ, Gusnard DA, Shulman GL. A default mode of brain function. Proc Natl Acad Sci US A. 2001; 98 (2):676-682.
  13. Christoff K., Gordon A.M., Smallwood J., Smith R., Schooler J.W. Experience sampling during fMRI reveals default network and executive system contributions to mind wandering. Proceedings of the National Academy of Sciences of the United States of America. 2009; 106:8719-8724.
  14. Rubinshtein S. L. Fundamentals of General Psychology — St. Petersburg: Publishing House «Peter», 2000 — 712 p.
  15. Anokhin P.K. System organization of physiological functions. M .: Medicine, 1969, — 447 p.
  16. M.A. Manoilova. Features of the development of emotional intelligence, temperament and general intelligence in future teachers // Bulletin of the Kostroma State University. ON. Nekrasov. Scientific and methodical journal. — Volume 12. Series of psychological sciences «Acmeology of education». — № 3 — Kostroma, 2006. — S. 80-84.
  17. Bekhterev V.M. Suggestion and its role in public life. Mental epidemics in history. SPb.: From K.L. Rikker, 1908. [Electronic resource]. URL: http: litmir.me/br/?b=92750&p=1 (date accessed: 14.12.2021).
  18. V. I. Vernadsky — N. E. Vernadskoy, 1886 / V. I. Vernadsky // Letters to N. Ye. Vernadskaya (1886-1889). — M.: Nauka, 1988 .- 304 p.
  19. Freud Z. On the question of amateur analysis: Conversations with an outsider // Collected works in 10 volumes, Additional volume. — M.: LLC «Firm STD», — 274 р.
  20. Asimov I. I, Robot. Runaround / A. Azimov. Round dance [Electronic resource] URL: https://e-libra.su/read/220931-ya-robot.html_ (translated by V. Postnikov, N. Khmelik)
  21. Yanovsky, R.G. Global changes and social security / R.G. Yanovsky. — M., 1999.-281 p.
  22. Bedeski, R. Human Security, Knowledge, and the Evolution of the Northeast Asian State / R. Bedesky. — Center for Global Studies, University of Victoria, 2000. — [Electronic resource]. — URL: http://www.globalcentres.org/docs/bedeski. html.
  23. Code of Ethics for Artificial Intelligence [electronic resource] https://rg.ru/2021/10/26/v-rossii-podpisan-kodeks-etiki-iskusstvennogo-intellekta.html.
  24. ROBOPRAVO. Research center for the problems of regulation of robotics and artificial intelligence [Electronic resource] Site. URL: http://robopravo.ru/modielnaia_konvientsiia.
  25. Okinawa Charter for the Global Information Society of July 22, 2000. [Electronic resource] URL: http://www.kremlin.ru/supplement/3170.
  26. OECD Council Recommendation on Artificial Intelligence. URL: https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449 (date accessed: 12/16/2021).
  27. International Organization for Standardization [Electronic resource] Official site. URL: https://www.iso.org/ru/committee/6794475.html?view=participation.
  28. Federal Law of 24.04.2020, № 123-FZ [electronic resource] Access from the ATP «Consultant Plus».
  29. Federal Law «On Technical Regulation» dated December 27, 2002 No. 184-FZ [electronic resource] Access from the ATP «Consultant Plus».
  30. By the Order of the Government of the Russian Federation of August 19, 2020 № 2129-r [electronic resource] Access from the ATP «Consultant Plus».
  31. Ethics Guidelines for Trustworthy Artificial Intelligence [Electronic resource] https://www.jdsupra.com/legalnews/ai-update-eu-high-level-expert-group-73340/.