Использование искусственного интеллекта в преступных целях: уголовно-правовая характеристика

JOURNAL: « SCIENTIFIC NOTES OF V.I. VERNADSKY CRIMEAN FEDERAL UNIVERSITY. JURIDICAL SCIENCE»,

SECTION:

Publication text (PDF)

Даниленко Ю. А.

Ученые записки Крымского федерального университета имени В. И. Вернадского Юридические науки. – 2023. – Т. 9 (75). № 4. – С. 232 – 240.

УДК 343.01

ИСПОЛЬЗОВАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ПРЕСТУПНЫХ ЦЕЛЯХ: УГОЛОВНО-ПРАВОВАЯ ХАРАКТЕРИСТИКА

Даниленко Ю. А.

ФГАОУ ВО «КФУ им. В. И. Вернадского»

  • статье рассматриваются способы, особенности и основные способы совершения преступлений, связанных с применением искусственного интеллекта. Среди основных преимуществ использования самообучаемых программ в противоправных целях стоит выделить их широкую географию, физиче-скую безопасность преступников и трудности их выявления. Изучены основные проблемы уголовно-правовой охраны общественных отношений, связанных с использованием искусственного интеллекта. Раскрывается проблематика определения места и роли искусственного интеллекта в конструкции со-ставов различных преступлений. Проанализированы субъективные и объективные признаки составов преступлений, совершаемых с использованием искусственного интеллекта.

Ключевые слова: искусственный интеллект, нейронные сети, преступление, состав преступления, самообучаемая программа, преступник.

Термин «искусственный интеллект» выступает относительно новым явлением не только в области права, но и в других науках.

Естественно, существенной трудностью, связанной с установлением юридических норм, регулирующих использование искусственного интеллекта (ИИ), является отсутствие четкого определения понятий, тесно связанных с данной технологией. Например, термин «носитель искусственного интеллекта» может охватывать различные виды технических систем, созданных на основе ИИ, и не имеет универсального юридического толкования. Данная ситуация связана с особенностями функционирования ИИ, которые характеризуются высокой степенью абстракции и сложностью алгоритмов обработки информации.

Например, «носителем искусственного интеллекта» может выступать «какой-либо предмет, управление которого полностью или частично зависит от самообучаемого программного обеспечения» [1]. Кроме этого, стоит обратить и на первопричину функционирования искусственного интеллекта, а именно функционирование компьютерных самообучаемых программ, которые позволяют взаимодействовать искусственному интеллекту с окружающим миром. К таким программам, может относиться, например, «какой-либо предмет, управление которого полностью или частично зависит от самообучаемого программного обеспечения» [2].

Для того, чтобы найти значение термина «искусственный интеллект», стоит об-ратить внимание на действующее законодательство Российской Федерации. Впер-вые определение данного термина было сформулировано Указом Президента РФ от 10.10.2019 №490 «О развитии искусственного интеллекта в Российской Федера-ции», а впоследствии закреплено Федеральным законом от 24 апреля 2020 г. №123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий ис-кусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в ст. 6 и 10 Федерального закона «О персо-нальных данных». Под искусственным интеллектом понимают «комплекс техноло-

232

Даниленко Ю. А.

гических решений, который позволяет имитировать когнитивные функции человека

  • получать результаты, сопоставимые, как минимум, с результатами интеллекту-альной деятельности человека» [3]. Указанное определение позволяет охватить и исследовать различные подходы к построению архитектуры искусственного интел-лекта. Однако, для того, чтобы создать полноценную правовую базу, детально ре-гламентирующую все общественные отношения, необходимо использовать все при-емы юридической техники с точными формулировками и отсутствием коллизий.

Далее, стоит обратить внимание на уголовно-правовые аспекты толкования искусственного интеллекта. В действующем уголовном законодательстве содержится достаточное количество определений тех или иных терминов. Однако, применение данной терминологии исключительно зависит от сферы уголовного права. То есть, определения таких преступлений, как кража, разбой, грабеж устанавливаются соответствующими статьями Уголовного кодекса РФ, а, к примеру определение мотива преступления в законодательстве отсутствует. Это обуславливается широкой трактовкой понятия «мотив» в том числе с позиции психологического подхода. В данной статье проведен анализ совершения противоправных деяний при помощи искусственного интеллекта. Стоит обратить внимание, что уникальной способностью ИИ (искусственного интеллекта) является его возможность к самообучению и самосовершенствованию, в том числе с последующей автономизацией, что существенным образом усложняет его правовое регулирование.

Развитие технологий влечет за собой совершенствование способов совершения преступлений. На сегодняшний день количество преступлений, связанных с использованием компьютерных технологий и электронной информации, постоянно возрастает. На первый план выходят высотехнологичные методы совершения преступных деяний. Искусственный интеллект (ИИ) – это технология, которая может упростить жизнь людей, однако, как и любая другая технология, она может быть использована и в преступных целях. На сегодняшний день преступники нашли несколько способов использования ИИ в своих целях. Один из способов – использование ИИ для социальной инженерии. Это может включать создание фейковых аккаунтов в социальных сетях, чтобы запутать пользователей и выманить их личную информацию. При использовании ИИ преступники могут собирать большое количество данных о потенциальных жертвах и использовать эту информацию для мошенничества, фишинга, кражи личных данных и других преступлений. Другой способ использования ИИ – это создание и распространение вирусов и вредоносных программ. ИИ может использоваться для создания вирусов

  • других вредоносных программ, которые могут атаковать компьютеры и сети. Преступники могут использовать эти программы для кражи личных данных, вымогательства, шантажа, а также для получения доступа к банковским счетам и другой конфиденциальной информации.

Третий способ использования ИИ – это создание «фейковых новостей» и распро-странение их через социальные сети. Используя ИИ, преступники могут создавать фальшивые новости, которые могут использоваться для манипулирования обще-ственным мнением. Это может быть полезно во время выборов или других полити-ческих процессов, чтобы повлиять на результаты.

233

Даниленко Ю. А.

Кроме того, ИИ может использоваться для взлома систем безопасности, таких как системы видеонаблюдения, охранной сигнализации и других устройств, исполь-зуемых для обеспечения безопасности в обществе. Преступники могут использовать ИИ, чтобы обойти существующие системы безопасности и получить доступ к за-щищенной информации. Однако, существует ряд технологий и методов, которые могут помочь бороться с использованием ИИ преступниками. Например, машинное обучение может использоваться для обнаружения и блокировки вредоносных про-грамм. Также существуют технологии, которые могут помочь в обнаружении фаль-шивых новостей.

Научная проблематика данного явления напрямую связана с отсутствием единого подхода к пониманию места искусственного интеллекта в теории уголовного права. Отсутствие закрепления норм, регулирующих использование искусственного интеллекта (ИИ) в уголовном законодательстве, обусловлено наличием недостаточного количества преступлений, связанных с применением технологий нейронных сетей. Данное обстоятельство может быть объяснено отсутствием уголовно-правовых критериев, регулирующих деятельность ИИ в общественной сфере. Кроме того, в силу сложности технологических процессов, связанных с функционированием ИИ, разработка универсальных правовых норм в этой области также представляется непростой задачей. Тем не менее, необходимость установления юридических ограничений на использование ИИ в уголовном процессе становится все более актуальной в свете последних научных и технологических достижений. Однако, тенденция роста количества преступлений данной направленности является очевидной и требует к себе соответствующего внимания с целью предупреждения возникновения неблагоприятных ситуаций.

Специфика правового регулирования использования искусственного интеллекта связана с тем, что он может самостоятельно причинять вред человеку, не являясь при этом орудием или средством совершения преступления. Примером может служить «случай причинения смерти человеку беспилотным транспортным средством, которое во время испытания, передвигаясь в автономном режиме, не смогло или не пыталось вовремя затормозить, что привело к наезду на пешехода»

  1. Создатели программного обеспечения для данного транспортного средства сознательно не желали наступления таких последствий, что позволяет рассмотреть эту конкретную ситуацию как случай максимального приближения искусственного интеллекта к статусу субъекта преступления.

Вышеуказанное подтверждает довод о том, что существует необходимость определения места искусственного интеллекта в уголовном праве путем его соотношения с отдельными элементами состава преступления.

Стоит также обратить внимание на тот факт, являются ли отношения, которые возникают при использовании искусственного интеллекта, объектом преступного посягательства или нет. Теория уголовного права традиционно выделяет общий, родовой, видовой и непосредственный объекты. В современных условиях, сопоставимым по объему с общественными отношениями, которые возникают в результате использования искусственного интеллекта, является только непосредственный объект. На это и указывает наличие в действующем Уголовном кодексе Российской Федерации соответствующей главы 28 «Преступления в сфере компьютерной информации» [5]. Учитывая, что, по своей сути, искусственный

234

Даниленко Ю. А.

интеллект является компьютерной программой, он в том числе и обеспечивает безопасность, анонимность и сохранность тех средств, которые используются для обработки соответствующей информации.

Вопрос изучения искусственного интеллекта в качестве предмета преступления является довольно дискуссионным. Сторонники одной точки зрения полагают, что предметом преступления являются лишь вещи, а также различные материальные образования. С другой стороны, с позиции теории уголовного права к предмету также относятся информация, атмосферный воздух, продукты интеллектуального труда, то есть, невещественные образования [6]. Согласно позиции С. В. Склярова и К. Н. Евдокимова, «компьютерная информация, средства ее создания, хранения, обработки и передачи, информационно-телекоммуникационные сети не только являются предметом преступного деяния, но и используются в качестве средства и орудия совершения преступления» [7]. На этом утверждении стоит остановиться подробнее, ввиду того, что использование компьютерной информации в преступных целях становится все более распространенным.

Использование нейросетей существенным образом расширяет возможности и облегчает способы совершения преступлений. Например, создание и распространение вредоносной информации, возложенное на компьютерную программу, позволяет осуществлять все намного быстрее и в больших объемах. Основными направлениями развития преступной деятельности с использованием технологии искусственного интеллекта постепенно становятся: а) ведение мошеннических переговоров в интернете с использованием измененного или клонированного голоса; б) совершение хищений денежных средств с банковских счетов: в) получение доступа к сведениям, составляющим охраняемую законом тайну; г) нарушение авторских и смежных прав и др. В этой связи, использование искусственного интеллекта виновным лицом может являться орудием или средством совершения преступления.

Искусственный интеллект, который использован в качестве средства совершения преступления, выступает высокотехнологичным инструментом, поскольку для достижения желаемого преступного результата преступнику необходимо обладать навыками в сфере компьютерных и иных электронных систем. Ввиду этого, совершение противоправных деяний с использованием современных компьютерных технологий и самообучаемых программ существенным образом повышает их общественную опасность. Также вероятность привлечения преступника к уголовной ответственности существенно снижается в связи с «дистанционным» способом совершения преступления. Таким образом, возникает необходимость быстрого реагирования на возникновение новых преступлений в связи с активным развитием компьютерных технологий. Данная проблема связана с глобальным характером технологических процессов, ведущих к распространению ИИ в различных сферах человеческой деятельности, и вызывает растущую необходимость в обеспечении безопасности и справедливости в использовании данной технологии.

Зарубежные ученые отмечают, что «с увеличением интенсивности использования искусственного интеллекта растет и уровень противоправной деятельности» [8]. В 2023 г. широкое распространение получил чат-бот Chat GPT, созданный в ноябре 2022 г. на базе искусственного интеллекта и позволяющий вести диалог в режиме реального времени, даже в виде спора, обладающий

235

Даниленко Ю. А.

способностью обнаруживать ошибки в коде и быстро создавать сценарии, стихи и иной контент в виде текста. Таким образом, можно сделать вывод, что в будущем искусственный интеллект будет только расширяться, внедряться во все сферы деятельности человека и эта тенденция будет только расти. Активное развитие данных технологий и расширение области их применения без соответствующего контроля со стороны государства может повлечь за собой практически непредсказуемый рост общественного опасных деяний, связанных с использованием искусственного интеллекта.

Как ранее уже было упомянуто, в медиапространстве была подробно освещена ситуация, в которой «автомобиль, управляемый автопилотом, во время испытаний сбил насмерть пешехода, переходившего дорогу в неположенном месте. Одними из причин данного происшествия являлись: ошибка оператора; несовершенство программного обеспечения; действия пешехода, которые привели к невозможности избежать столкновения» [9].

Стоит отметить, что данный конкретный случай не является доказательством то-го, что искусственный интеллект всегда будет нацелен на нанесение вреда обще-ственным отношениям. Тем не менее, можно привести ряд случаев, которые под-тверждают возможность создания нейронной сети, которая «специально обучена мыслить с уклоном на разрушение и психические расстройства» [10]. Данная систе-ма носит экспериментальный характер, она лишена возможности причинять реаль-ный вред, но это не исключает возможности ее использования в будущем преступ-никами для реализации своего преступного умысла. Согласно ст. 8 Уголовного ко-декса РФ, «основанием уголовной ответственности является совершение деяния, содержащего все признаки состава преступления, предусмотренного настоящим Кодексом» [5]. Соответственно, сделать вывод о том, может ли искусственный ин-теллект выступать субъектом преступления, возможно только в случае, если данная система в принципе обладает возможностью совершить такое противоправное дея-ние. Спектр применения искусственного интеллекта в преступных целях довольно широк – это использование нейросетей для взлома компьютерных систем, отслежи-вание банковских переводов с целью хищения безналичных денежных средств, под-бор паролей для получения доступа к информации, носящей конфиденциальный характер, сбой информационного обеспечения, необходимого для функционирова-ния объектов инфраструктуры государства и т.д.

Искусственный интеллект (ИИ) – это компьютерная технология, способная об-рабатывать данные и делать выводы, которые ранее могли быть сделаны только че-ловеком. Несмотря на то, что ИИ пока не обладает самосознанием, свободой воли или эмоциями, существует ряд вопросов, связанных с тем, можно ли ИИ рассматри-вать как субъекта уголовного права.

Сегодня большинство стран мира не предусматривает ответственности ИИ как субъекта уголовного права, так как ИИ не является юридическим или физическим лицом. Однако, существуют некоторые исключения. Например, в Японии в 2017 г. был создан закон о регистрации ИИ как субъекта права собственности. Этот закон позволяет зарегистрировать ИИ как субъекта права на интеллектуальную собствен-ность, такую как патенты и авторские права, что может защитить права владельцев ИИ. Кроме того, в 2019 г. Европейский парламент проголосовал за резолюцию, в которой призывалось регулировать ответственность ИИ в рамках правовой систе-

236

Даниленко Ю. А.

мы. В этой резолюции предлагается ввести стандарты безопасности и этические нормы, которые должны соблюдаться при разработке и использовании ИИ, а также определить, кто несет ответственность за причиненный вред, если он был вызван действиями ИИ. Также стоит отметить, что вопросы ответственности ИИ будут ста-новиться все более актуальными с развитием технологий. Например, если автомати-зированное транспортное средство, оснащенное ИИ, причинит аварию, кто будет нести ответственность за причиненный вред – производитель, владелец или опера-тор?

  • целом, можно сказать, что на сегодняшний день ИИ не рассматривается как субъект уголовного права, но ситуация может измениться в будущем. Однако, важно учитывать, что разработка ИИ должна соответствовать этическим и юридическим нормам, чтобы избежать потенциальных проблем, связанных с ответственностью владельца.

Одним из последних современных способов совершения данного рода преступлений выделяют «использование мошенниками поддельного голоса, который был обучен с использованием искусственного интеллекта с целью осуществления платежей на счет преступников» [11]. По мнению европейских специалистов, мошенники будут подделывать голос все чаще. Этому способствует и то, что программы, которые позволяют имитировать чужой голос, сейчас продают многие компании. При этом для их использования не нужны какие-то специальные навыки. «С помощью искусственного интеллекта можно и голос подделать, даже видео сделать — реалистичные изображения, которых в природе не существует, но их не отличить от настоящих. Это сделать несложно» [12].

Данные факты использования искусственного интеллекта в противоправных целях подтверждают его общественную опасность и возможность наносить ущерб охраняемым законом общественных отношениям. Принимая во внимание юридическую оценку каждой конкретной ситуации «выделяют ряд субъектов, деятельность которых при использовании искусственного интеллекта позволяет привлечь их к уголовной ответственности» [1].

Во-первых, ключевым субъектом является производитель искусственного интеллекта. В случае умышленного деяния указанным лицом, как правило, не требуется дополнительного толкования, тогда как в случае неосторожности могут возникнуть проблемы, связанные с оценкой обстоятельств, умысла и прочих факторов, которые могут повлиять на характер и квалификацию деяния.

Например, в случае неправильной диагностики, основанной на использовании системы поддержки принятия врачебных решений (СППВР), что привело к летальному исходу, ответственность может быть возложена на разработчика программного обеспечения, если установлено наличие недостатков в конструкции СППВР или нарушений правил его эксплуатации, которые могли привести к неправильной диагностике, но только в том случае, если он «при необходимой внимательности и предусмотрительности мог предвидеть эти последствия» [1]. Данное преступления попадает под действие п. «в» ч. 2 ст. 238 УК РФ, как «выполнение работ или оказание услуг, не отвечающих требованиям безопасности жизни или здоровья потребителей, если они повлекли по неосторожности причинение смерти человека» [5]. Также субъектами могут являться и третьи стороны. «Поскольку искусственный интеллект остается пусть и сложной, но все же

237

Даниленко Ю. А.

компьютерной программой – это означает возможность противоправного вмешательства в его код, например, со стороны представителей киберпреступности. Думается, что с дальнейшей эволюцией систем искусственного интеллекта, в этом направлении будет развиваться и данный вид преступности» [1]. В этой связи, «практически любые общественные отношения могут выступать в качестве объекта посягательства» [1]. В связи с расширением применения искусственного интеллекта для нанесения ущерба критической информационной инфраструктуре государства в УК РФ есть соответствующая ст. 2741 «Неправомерное воздействие на критическую информационную инфраструктуру Российской Федерации» [5].

Также преступники используют нейросети как один из высокотехнологичных способов облегчить совершения преступления. Данные деяния попадают под действие ст. 273 УК РФ «Создание, использование и распространение вредоносных компьютерных программ» [5]. Вышеперечисленные примеры наглядно демонстрируют, что в противоправных деяниях, которые совершались при помощи искусственного интеллекта, субъектом преступления выступает конкретное физическое лицо, которое осуществляло управление и обучение алгоритмов, либо распространяло программное обеспечение. Однако, допустима ситуация, в ходе которой сама программа является причинителем вреда охраняемым законом интересам. Сам создатель данной программы не имел умысла на ее противоправное использование, своими действиями исключил подобное поведение, а также не имело место быть вмешательство посторонних лиц. Любая самообучаемая программа имеет риск стать непредсказуемой в процессе применения, этого не следует исключать. «В настоящий момент, следует признать, что реализация уголовной ответственности по отношению к системе искусственного интеллекта нецелесообразна, поскольку последняя еще не столь значительно отличается от иных программ, и не обладает должным уровнем самосознания» [1]. В существующих условиях, вред, который был причинен искусственным интеллектом, трактуется как невиновный, что влечет за собой отсутствие основания для привлечения к уголовной ответственности. В свою очередь, возмещение вреда при отсутствии вины причинителя вреда, допускается только с позиции действующего гражданского законодательства, а именно ч. 2 ст. 1074 ГК РФ.

Вопрос в отношении того, может ли искусственный интеллект в перспективе стать субъектом преступления остается дискуссионным.

Сторонники одной точки зрения склоняются к тому, что самообучаемая программа действует в рамках алгоритма, заданного людьми, и соответственно вина должна быть возложена только на создателя, то есть на физическое лицо. Ключевым обстоятельством будет являться то, осознавал ли правонарушитель, что результаты его действий могут стать противоправными, и все же решил не останавливаться. Нейросеть в данном случае выступает скорее инструментом, который нуждается в эффективном контроле даже с учетом внештатных ситуаций. Создатель программы несет ответственность и может стать виновным в случае, если «действие, совершенное роботом, является уголовным преступлением, установленным законом» [13].

Сторонники другой точки зрения склонны утверждать, что в будущем «искусственные мыслительные процессы не только сравняются с человеческими, а превзойдут их» [14]. С учетом неуклонного расширения области применения

238

Даниленко Ю. А.

искусственного интеллекта с целью нарушения критически важной информационной структуры РФ, проведенные исследования в этой области привели

  • формулированию важных выводов. В первую очередь, следует отметить, что уголовно-правовые нормы не всегда могут регулировать общественные отношения, связанные с применением самообучаемых программ, в то время как количество преступлений, в которых используются соответствующие компьютерные программы, неуклонно растет. На втором месте стоит обратить внимание на то, что неуправляемое развитие искусственного интеллекта может стать общественной угрозой и представлять опасность для отношений, защищаемых уголовным законодательством. В-третьих, в некоторых случаях нейронные сети могут полностью реализовывать объективную сторону состава преступления, что может привести к возникновению новых видов преступлений, не регулируемых существующим уголовным законодательством.
    • четвертой части данного исследования отмечается, что в настоящее время субъективная сторона искусственного интеллекта отражает содержание интеллекту-альных и волевых элементов жизнедеятельности человека, и это сходство может быть усилено с развитием компьютерных технологий. Из этого следует, что поведе-ние искусственного интеллекта может проявлять субъективную противоправность.
    • дополнение к этому, создатели самообучаемых программ, производители продукции, оснащенной искусственным интеллектом, пользователи такой продукции и другие лица могут стать возможными субъектами преступлений, в которых используется искусственный интеллект. В перспективе, если искусственный интеллект будет обладать всеми свойствами личности и если такой статус будет законодательно закреплен, он может стать полноправным субъектом преступления.

Список литературы:

  1. Мосечкин, И. Н. Искусственный интеллект в уголовном праве: перспективы совершенствования охраны и регулирования : [монография] / И. Н. Мосечкин. – Киров : Вятский государственный универ-

ситет, 2020. – С. 44.

  1. Камышанский В. П., Корецкий А. В. Понятие и правовой статус носителя искусственного интеллекта // Власть закона. 2019. No 1 (37). С. 42–50.
  2. Федеральный закон «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных» от 24.04.2020 N 123-ФЗ

(последняя редакция) [Электронный ресурс]. – Режим доступа: URL: https://www.consultant.ru/document/cons_doc_LAW_351127/ (29.03.2023)

  1. Artificial intelligence // Britannica. URL: https://www.britan- nica.com/technology/artificial-intelligence
  2. Уголовный кодекс Российской Федерации от 13.06.1996 N 63-ФЗ (ред. от 14.04.2023) [Электронный ресурс]. – Режим доступа: URL: https://www.consultant.ru/document/cons_doc_LAW_10699/ (29.03.2023).
  3. Воробьѐв В. В. О предмете преступления, его месте в составе преступления и особенностях в компьютерных преступлениях // Символ науки. 2015. No 6. С. 221–223.
  4. Скляров С. В., Евдокимов К. Н. Современные подходы к определению понятия, структуры и сущности компьютерной преступности в Российской Федерации // Всероссийский криминологический журнал. 2016. Т. 10. No 2. С. 322–330.

8. erkaP., Grigien J., Sirbikyt G. Liability for damages caused by artificial intelligence // Computer Law & Security Review. 2015. Vol. 31. I. 3. P. 376–389.

  1. Мосечкин И.Н. Искусственный интеллект и уголовная ответственность: проблемы становления но-вого вида субъекта преступления // Вестник Санкт-Петербургского университета. Право. 2019. Т. 10. No 3. С. 461–476
  2. Norman // Norman MIT. URL: http://norman-ai.mit.edu/ (date of the application 03.07.2022).

239

Даниленко Ю. А.

  1. Даниленко, Ю. А. Проблемы расследования отдельных видов киберпреступлений, совершенных с использованием искусственного интеллекта // Проблемы получения и использования доказательственной и криминалистически значимой информации : материалы Международной научно-практической конференции, Мисхор (Большая Ялта), 26–27 сентября 2019 года. – С. 37-39.
  2. Проект всестороннего исследования проблем киберпреступности Управления Организации Объ-единенных Наций по наркотикам и преступности. — Австрия., V.13-80699 — февраль 2019 года. —

[Электронный ресурс] URL: https://www.unodc.org/documents/organized-

crime/cybercrime/Cybercrime_Study_Russian.pdf

  1. Sunde, I. M. A new thing under the sun?: Crime in the digitized society. NSfK’s 58. Research Seminar:

New challenges in criminology: Can old theories be used to explain or understand new crimes? / under ed. I A.

Kinnunen. Bifröst : Scandinavian Research Counsil for Criminology P. 60–79.

  1. Radutniy O. E. Criminal Liability of the Artificial Intelligence // Problems of Legality. 2017. I. 138. P.

132–141.

Danilenko Y.A. The use of artificial intelligence for criminal purposes: criminal and legal character-istics // Scientific notes of V. I. Vernadsky crimean federal university. Juridical science. – 2023. – Т. 9 (75).

  • 4. – Р. 232 – 240.

The article discusses the methods, features and main methods of committing crimes related to the use of artificial intelligence. Among the main advantages of using self-learning programs for illegal purposes, it is worth highlighting their wide geography, the physical safety of criminals and the difficulty of identifying them. The main problems of criminal law protection of public relations associated with the use of artificial intelligence have been studied. The problem of determining the place and role of artificial intelligence in the design of various crimes is revealed. Subjective and objective signs of crimes committed using artificial intel-ligence are analyzed.

Keywords: artificial intelligence, neural networks, crime, corpus delicti, self-learning program, criminal. Spisok literatury:

  1. Mosechkin, I. N. Artificial intelligence in criminal law: prospects for improving protection and regulation : [monograph] / I. N. Mosechkin. – Kirov : Vyatka State University, 2020. – p. 44.
  2. Kamyshansky V. P., Koretsky A.V. The concept and legal status of an artificial intelligence carrier // The Power of Law. 2019. No. 1 (37). pp. 42-50.
  3. Federal Law «On Conducting an Experiment to Establish Special Regulation in Order to Create the Neces-sary Conditions for the Development and Implementation of artificial intelligence Technologies in the Subject of the Russian Federation — the Federal City of Moscow and Amendments to Articles 6 and 10 of the Federal Law «On Personal Data» dated 04/24/2020 N 123-FZ (latest edition) [Electronic resource]. – Access mode: URL: https://www.consultant.ru/document/cons_doc_LAW_351127 / (03/29/2023).
  4. Artificial intelligence // Britannica. URL: https://www.britan — nica.com/technology/artificial-intelligence 5. Federal Law of the Russian Federation of 13.06.1996 N 63-FZ (ed. of 14.04.2023) [Electronic resource]. – Access mode: URL: https://www.consultant.ru/document/cons_doc_LAW_10699 / (03/29/2023).
  5. Vorobyov V. V. About the subject of the crime, its place in the composition of the crime and features in computer crimes // Symbol of Science. 2015. No. 6. pp. 221-223.
  6. Sklyarov S. V., K Evdokimov N. N. Modern approaches to the definition of the concept, structure and es-sence of computer crime in the Russian Federation // All-Russian Journal of Criminology. 2016. Vol. 10. No.
  7. pp. 322-330.
  8. Cherkap., Grigieney., Sirbikite G. Liability for damage caused by artificial intelligence // Review of com-puter law and security. 2015. Volume 31. I. 3. pp. 376-389.
  9. Mosechkin I.N. Artificial intelligence and criminal responsibility: problems of the formation of a new type of subject of crime // Bulletin of St. Petersburg University. Right. 2019. Vol. 10. No. 3. pp. 461-476.
  10. Norman // Norman Massachusetts Institute of Technology. URL: http://norman-ai.mit.edu / (
  11. Danilenko, Yu. A. Problems of investigation of certain types of cybercrimes committed using artificial intelligence / Yu. A. Danilenko // Problems of obtaining and using evidentiary and criminalistically significant information : Proceedings of the International Scientific and Practical Conference, Mishor (Greater Yalta), September 26-27, 2019. – pp. 37-39.
  12. Project of a comprehensive study of cybercrime problems of the United Nations Office on Drugs and Crime. — Austria., V. 13-80699 — February 2019.
  13. Sunde, I. M. What’s new under the sun?: Crime in a digital society. NSfC — 58. Research Seminar: New Challenges in Criminology: Is it possible to use old theories to explain or understand new crimes? / edited by Ya A. Kinnunen. Bifrest : Scandinavian Research Council on Criminology, pp. 60-79.
  14. Radutny O. E. Criminal liability of artificial intelligence // Problems of legality. 2017. I. 138. pp. 132-141.

.

240