Интеллект против интеллекта. Борьба с преступностью превращается в противоборство технологий

Искусственный интеллект (ИИ) подобен ножу с обоюдоострым лезвием. С одной стороны, он сказочно облегчает жизнь людей, давая им невиданные доселе возможности, в частности, существенно повышая эффективность борьбы с преступностью. С другой — дает той же преступности такие инструменты, противостоять которым становится все сложнее и сложнее.

Интеллект против интеллекта. Борьба с преступностью превращается в противоборство технологий | ФОТО freepik.com

ФОТО freepik.com

Звонок от «внука»

К числу отмирающих «профессий» эксперты сегодня относят и профессию… телефонного мошенника. Человек, даже самый ловкий, способен за один день осуществить до 300 звонков-ловушек, а искусственный интеллект увеличивает количество таких звонков до 40, а то и до 50 тысяч в сутки. При этом ИИ способен вести диалог с потенциальной жертвой в рамках стандартного протокола (что, собственно, делает и живой мошенник), работать круглосуточно, не требовать еды и зарплаты, да еще по ходу дела и обучаться.

Как считает кандидат технических наук руководитель лаборатории развития и продвижения компетенций кибербезопасности компании «Газинформсервис» Ксения Ахрамеева, неживой разум также опасен тем, что он легче может подстроиться под психотип жертвы, что сделает мошенническую операцию успешнее.

Более того, в ход идет технология дипфейка. Еще недавно зло­умышленники применяли ее чаще всего для компрометации известных людей, вставляя их лица, к примеру, в порноролики. Сегодня же, используя взломанные аккаунты, они получают образцы изображений и голосов родных и знакомых потенциальных жертв. А потом бабушке звонит или присылает видеосообщение «внук» и просит денег. А главному бухгалтеру крупной фирмы может позвонить его «начальник» и потребовать срочно перебросить крупную сумму на некий счет. Так в 2019 году мошенники смогли обмануть директора британской энергетической компании, представившись его «руководителем», и похитить 243 тысячи долларов.

Адвокаты бьют тревогу

Проникают дипфейки и в сферу права. Сегодня не составляет труда подделать тот или иной документ, фотографию или запись с видео­камеры. Адвокаты столкнулись с новой реальностью, в которой важно перепроверять любую информацию.

«Адвокатское сообщество выражает тревогу в связи с ростом числа голосовых преобразовательных программ, работающих на основе искусственного интеллекта. Эти технологии могут быть использованы для ложного обвинения человека», — говорит доцент Финансового университета при правительстве РФ Оксана Васильева.

Она добавляет, что современные экспертизы способны выявить, например, монтаж записи из различных фрагментов. Однако возникают сомнения, смогут ли эксперты обнаружить разговор, созданный нейросетью. В Федеральной палате адвокатов России настаивают на том, что любые сомнения в подлинности аудио должны трактоваться в пользу подозреваемого, а также предлагают установить дополнительные ограничения на использование таких технологических доказательств в суде.

Другие юристы, впрочем, утверждают, что нейросеть может как раз стать той палочкой-выручалочкой, которая будет способна обнаруживать обман. Кто прав, покажет жизнь. Пока эксперты и адвокаты с выявлением подделок справляются. Тем не менее нельзя исключить, что в ближайшем будущем может потребоваться новая система экспертизы.

«Технологии развиваются стремительно — не исключено, что через пару лет дипфейки станут реальной проблемой и действенным механизмом фальсификации доказательств. В этом случае придется фундаментально пересматривать и процесс доказывания, и организацию судопроизводства в целом», — отмечает адвокат Ростовской областной коллегии адвокатов «Советник» Станислав Батманов.

Наказание ужесточить!

Председатель комиссии Совета Федерации по информационной политике и взаимодействию со СМИ Алексей Пушков заявил, что использование искусственного интеллекта при совершении преступления необходимо признавать отягчающим обстоятельством. Кроме того, в Госдуму уже внесли законопроект, который дополнит статьи о клевете, краже, мошенничестве, вымогательстве, причинении имущественного ущерба путем обмана или злоупотребления доверием с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) потерпевшего или иного лица.

«Изображение гражданина или его голос в различных ситуациях могут как относиться к биометрическим персональным данным, используемым в целях идентификации гражданина, так и не иметь такого статуса. Учитывая, что именно голос и изображение гражданина используются чаще всего для обмана, предлагается выделить их в отдельную категорию», — говорится в пояснительной записке документа.

Поддерживает такую точку зрения и советник Российской академии естественных наук по экономике и социологии Антон Баланов. Он замечает, что применение искусственного интеллекта значительно повышает масштаб и сложность мошеннических действий.

«С помощью ИИ злоумышленники могут автоматизировать и масштабировать процессы генерации поддельных голосовых сообщений, фишинговых писем или имитации поведения реальных людей. Это делает их преступления намного более изощренными и трудно выявляемыми по сравнению с традиционными методами. Поэтому применение ИИ должно влечь за собой более строгое наказание, чтобы создать действенный сдерживающий эффект», — прокомментировал специалист.

Репрессии бесполезны?

Искусственный интеллект дает возможность проворачивать мошеннические схемы как группе лиц, так и одному человеку, вовлекая в паутину обмана как можно больше граждан за короткий срок. Как считает Ксения Ахрамеева, один мошенник, применяя в своей практике современные технологии, должен отвечать за такое преступление так же, как если бы он совершал подобное преступление в группе.

Впрочем, есть и другая точка зрения — слишком подробное и жесткое регулирование может задушить инновации, разрушив позиции той или иной страны в мировой ИИ-гонке.

Член общественного совета при Минцифры и Совета предпринимателей Москвы Валерий Сидоренко убежден, что совершенствование законодательства о защите данных, кибербезопасности и расследовании ИИ-преступлений в одностороннем порядке не приведет ни к чему хорошему. Важно, чтобы государственные структуры были на связи с digital-рынком. Тогда в России получится создать такие меры, которые помогут сделать законодательство максимально прогрессивным.

«Подход в духе «все запретить, а остальное — зарегулировать» грозит убить как бизнес, применяющий ИИ в коммерческих целях (например, SMM-агентства), так и креативные процессы. Миллионы людей ежедневно генерируют с помощью нейросетей мемы, песни, нарезки и фото без каких‑либо криминальных или коммерческих целей», — заключил он.

«Бороться с этим видом мошенничества помогут такие же или более серьезные технологии, так как решить проблему одним только наращиванием уголовной репрессии не получится», — считает управляющий партнер адвокатского бюро Москвы «Матюнины и Партнеры» Олег Матюнин.

Он предлагает постоянно развивать экспертные методики, распознающие фейковые изображения и звук. Если этому не научиться, то масштабы такого вида мошенничества вырастут.

Читайте также:

Путешествие с подвохом. Как не стать жертвой мошенников в интернете?

Где связь, там и мошенники: обман с помощью телефона и Интернета — международная практика


#искусственный интеллект #мошенники #мошенничество

Материал опубликован в газете «Санкт-Петербургские ведомости» № 214 (7790) от 12.11.2024 под заголовком «Интеллект против интеллекта».


Комментарии