Попались в нейросети: на смену «естественной» социальности приходит искусственная
В пылесосе сложно разглядеть потенциального Терминатора и опасаться «восстания машин». Но стоило нейросети ChatGPT научиться складно писать тексты, как десятки ученых призвали сделать паузу в разработках. Именно генеративный искусственный интеллект (тот, который умеет создавать тексты, изображения, программные коды) может отнять работу у каждого четвертого офисного сотрудника. Таков прогноз Международной организации труда. Кандидат социологических наук доцент кафедры сравнительной социологии СПбГУ Наталья ТРЕГУБОВА вместе с коллегами анализирует риски и угрозы, связанные с проникновением искусственного интеллекта в нашу жизнь.
ФОТО Сергея ГРИЦКОВА
— Наталья, вы давно изучаете искусственный интеллект. А был момент, когда лично вам вдруг стало не по себе?
— Пожалуй, два таких случая было. Несколько лет назад я смотрела видеоролик про нейросеть GPT еще второго поколения (в этом году уже появилось четвертое). Ей дали задание написать научную статью о том, что в горах Южной Америки ученые обнаружили стадо единорогов. И нейросеть ее написала, подробно рассказав о деталях открытия. Смутило даже не то, что «научная» статья была о существах, которых нет в природе, а то, что текст был очень похож на «человеческий».
Я преподаватель и, конечно, ждала, когда этим инструментом воспользуются студенты. Широко известен случай, когда студент московского РГГУ с помощью нейросети написал диплом, о чем сам и рассказал. Кого‑то из преподавателей это возмутило, другие сказали: нейросеть — полезный помощник, просто надо указывать, если им пользовались. Но это в любом случае ставит вопрос о том, чему и как теперь учить. Скажем, чему учить журналистов, если ChatGPT и подобные ему программы могут писать статьи? Редактировать? Проверять информацию? Учить писать только в тех жанрах, где человеческие тексты сильно отличаются от написанных нейросетью?
— Нам свойственно очеловечивать технологии, но все же — можно объяснить, почему нейросеть врет?
— Она не «врет»: ее задача — не добывать точную информацию, а создать правдоподобный текст, похожий на те миллиарды текстов из Интернета, на которых она училась писать. Я это сравниваю со студентом, который не знает ответа на экзаменационный билет и старается выкрутиться, «льет воду», пытаясь отвечать максимально неконкретно.
— А второй случай, который вас насторожил…
— Он был связан с приложением Replika. Это чат-бот для дружеского или романтического общения. Приложение американское, но сделали его выходцы из России. Сначала идея была в том, чтобы можно было «переписываться» с умершим человеком. Мы все оставляем цифровые следы — в переписке, в соцсетях и так далее, на этом материале можно натренировать чат-бот так, что он будет отвечать в нашем стиле…
— По поводу этого приложения были бурные дискуссии: насколько этично «оживлять» конкретного погибшего человека.
— Да-да, потом даже сменилась концепция: можно было самому создать себе цифрового друга по переписке. Или даже возлюбленного. Чат-бот запоминает манеру беседы и умеет ее поддерживать. Во время пандемии это приложение было очень популярно — кстати, выяснилось, что мужчины страдали от нехватки общения больше, чем женщины, и активнее прибегали к такой переписке.
Но скандал случился и вокруг этого варианта. Где‑то полгода назад в Штатах стали спорить, уместно ли заводить «душевные» (в том числе эротические) отношения с компьютером, с роботом. И разработчики «запретили» нейросети писать фразы вроде «Я тебя люблю» и тому подобное.
Одна моя студентка написала курсовую про это приложение. Как она признается, ей свойственно очеловечивать все, от чашки до ноутбука, но приложение-собеседник оказалось настолько примитивным, что проникнуться к нему не удалось. А мне доводилось во время исследований беседовать с пользовательницей приложения, которая оказалась им вполне довольна. Раньше в минуты печали писала друзьям, а сейчас пишет этой нейросети, та всегда «поймет и поддержит».
Вот тут мне и стало не по себе. Получается, даже довольно простая технология (гораздо примитивнее, например, голосового помощника «Алиса») способна вызвать у человека глубокую привязанность. И ведь, когда разработчики приложения ограничили нейросеть в возможности «выражать чувства», некоторые пользователи пострадали. Сначала их как бы пристрастили к цифровому другу, а потом бросили.
— Это и есть «концепция искусственной социальности», которую вы сформулировали в своем исследовании?
— Да. Если искусственный интеллект — это программа, которая имитирует человеческий интеллект, то искусственная социальность — это программы, имитирующие человеческую социальность.
Алгоритмы выступают участниками или посредниками в наших взаимодействиях. Раньше мы за информацией шли в библиотеку и спрашивали библиотекаря, сейчас идем в Интернет. Раньше спрашивали совета у опытных старших, сейчас следим за авторитетными для нас блогерами. Им можно задать вопрос, они даже ответят — правда, этот ответ могла написать обученная нейросетка. Если не с кем общаться, можно поболтать с «Репликой». Вместо похода в театр (спектакль может и не понравиться) заходим в «Ютуб»: алгоритмы платформы подберут контент под наш вкус.
А настоящие социальные связи распадаются. Если смотреть на историю человечества, то людей во многом держала вместе необходимость. Семьей выжить было легче, чем в одиночку, отсюда «стерпится — слюбится». Сейчас заводить семью для выживания часто нет необходимости. Если мы и выбираем круг общения, то уже не так стараемся (и не очень умеем) под него подладиться. Не случайно так популярны в массовой культуре стали герои-социофобы: доктор Хаус, новый Шерлок Холмс из британского сериала.
Алгоритмы подсовывают нам новости, подобранные конкретно под нас, мы оказываемся в информационном пузыре вместе с людьми, которые думают примерно так же. И теряем способность взаимодействовать с теми, кто думает иначе, чем мы.
— Так и тянет демонизировать алгоритмы, но обучал‑то их человек.
— Конечно. В начале всего стоит человек. Года два назад в США был скандал: самую известную в мире соцсеть обвинили в том, что она поляризует мнения, разжигает агрессию. Конечно, таких намерений не было. Компания просто хотела, чтобы пользователи не только читали посты и новости, а вовлекались в обсуждения. Чтобы «залипали» и не уходили на ресурсы конкурентов. Для этого соцсеть предложила новые иконки для «лайков», более эмоциональные. И алгоритм был настроен так, что посты с ними рассылались с большим охватом. Один из смайликов изображал возмущение, другие были позитивными, но человеку свойственно острее реагировать на негатив, и в результате «возмутительные» новости и посты распространялись шире. И действительно повышали уровень поляризации в онлайне.
Это яркий пример того, что наш научный коллектив называет взаимозависимостью человека и алгоритма. Люди придумали алгоритмы, те действуют по своей логике и влияют на людей.
И не всегда речь о каком‑нибудь главном разработчике, чья идея обернулась непредсказуемыми последствиями. Сейчас стараются не допускать в соцсетях экстремистский, оскорбляющий контент, распознавать его должна программа, а обучают ее десятки тысяч обычных людей, разметчиков данных. Это работа довольно нудная, часто неприятная: часами просматриваешь «тонны» картинок и сообщений, оценивая их «на негативность» и обучая программу. Эти разметчики данных могут принадлежать к другой культуре, обладать другими представлениями об этичном и неэтичном, и исходя из этого обучают алгоритмы — а отражается это на пользователях, которые могут жить в другой части света и иметь другие «представления о прекрасном».
— В исследовании вы помимо распада социальных связей и кризиса в высшем образовании упоминаете усиление неравенства и влияние искусственного интеллекта на сферу здравоохранения — не в технологическом, а в социальном смысле…
— При поддержке Российского научного фонда и Российского фонда фундаментальных исследований мы изучали влияние онлайн-технологий на здравоохранение в России, США, Швеции, Южной Корее, на Тайване.
Например, в Южной Корее во время пандемии использовали приложения, которые присылали гражданам результаты тестирования на COVID-19 в режиме реального времени и отслеживали их контакты с другими людьми. Это повысило доверие к государству со стороны как граждан, так и мирового сообщества: онлайн-отслеживание обеспечило «прозрачность» мер противодействия пандемии. А в Швеции регулирование было минимальным. Сами шведы высоко оценили такой подход своих властей, но у других стран доверие к Швеции тогда снизилось: извне было непонятно, как государство борется с пандемией, что там происходит.
В России вне зависимости от пандемии очень важным фактором, влияющим на систему здравоохранения, оказалось то, что пациенты сами «гуглят». Приходят к врачу: «У меня такие‑то симптомы, я посмотрел в Интернете…». Одни ищут качественно, другие вычитывают какие‑то глупости, но в любом случае Интернет стал некой альтернативой авторитету врача.
Что касается неравенства, то приведу пример самой сферы «искусственный интеллект». Казалось бы: речь о высоких технологиях. Но и тут уже формируется иерархия профессий. В центре — специалист по работе с нейросетью: человек, который знает математику, сложное программирование и к тому же узкую предметную область. Вокруг него — сотрудники, которые не разрабатывают, но разбираются и могут быть аналитиками данных, продакт-менеджерами. А следующий круг — профессии, без которых не обойтись, но которые не приносят ни особого заработка, ни удовлетворения. Это тестировщики, программисты, пишущие очень ограниченные куски кода. Это новые «невидимые» профессии.
Вообще, говоря про исследования, нужно понимать, что они невозможны без организованной поддержки. Нашему коллективу повезло. С одной стороны, есть поддержка упомянутых мной фондов. С другой — в Санкт-Петербургском государственном университете можно и проводить исследования, и рассказывать об этом студентам, и растить из них будущих коллег. При этом университет — единая организация: у нас есть люди, которые создают программы искусственного интеллекта, и конкурс на связанные с IT специальности в этом году колоссальный.
Однако негативный сценарий использования такого рода программ — это массовая безработица, распад социальных связей и другие не очень приятные последствия. Поэтому наряду с математиками и программистами нужны и социологи — чтобы эти последствия предвидеть. Нужны, конечно, и юристы, философы, когнитивные психологи…
— Вас впечатлило открытое письмо Илона Маска, Стива Возняка и других с призывом приостановить обучение систем искусственного интеллекта? Не показалось ли, что это немножко…
— «Пчелы против меда»? Да, есть такое. Сами разрабатывают и сами же себя призывают притормозить.
Когда это письмо «о паузе» вышло, я подумала, что никто на нее всерьез не согласится. Смысл имеют международные договоренности, а в разных странах свое отношение к технологиям искусственного интеллекта. Например, в Китае и России, где сильно влияние государства, возможно было бы ввести какие‑то регуляторы. Евросоюз собирается принять кодекс, который будет регламентировать эту сферу. Но активнее всего искусственный интеллект развивается в Штатах, а там до сих пор популярна идеология свободного предпринимательства и лучшим регулятором считается рынок: покупатель сам решит, что ему нужно.
— Вы с коллегами в исследовании пишете про необходимость табу в этой сфере. Разве это возможно? Это как с клонированием человека: кто поручится, что на некоем острове миллиардер не держит лабораторию, где сейчас ведутся такие опыты?
— Табу — это не то, что невозможно нарушить. Табу как раз нарушают, как возможно нарушить и любой закон. Но оно дает представление о должном и недолжном, а это как раз необходимо. Вроде врачебного «не навреди» или запрета на клонирование человека.
Наверное, табу в этой сфере могут различаться от общества к обществу, от региона к региону. Возможно, они должны законодательно закрепляться: например, можно ли использовать аватары умерших людей.
Нам постоянно придется задавать себе вопрос: приведет ли новая масштабная инновация к благу? Как социолог, могу сказать, то, что действительно нужно, — так это чтобы высказывались люди с разными позициями. Моральный и культурный прогресс все понимают по‑разному, современное общество тем и характерно, что нет единого представления, куда следует идти. Возможно, нужны экспертные советы, в которые войдут представители науки, религиозных конфессий, бизнеса, государства.
Такие советы могут быть и на уровне страны и региона, и на межгосударственном уровне. В России, например, принят Кодекс этики в сфере искусственного интеллекта: он необязательный, но сама по себе это хорошая форма. А исследователи из социальных наук должны мониторить, как люди используют эти технологии. При этом, выявляя непредвиденные последствия их действий, ученые «ставят диагноз», который для грамотного принятия решения предстоит использовать все‑таки другим людям — представителям государства, бизнеса, членам экспертных советов.
— Вам не кажется, что глобально мы все равно не сможем предугадать угрозы. Слишком много неизвестных: скажем, Интернет не стал бы так популярен, если бы не придумали персональный компьютер.
— …а тем более смартфон, благодаря чему компьютер есть у каждого в кармане.
Само направление «искусственный интеллект», как и понятие искусственных нейросетей, появилось еще в 1950‑е, и уже тогда обсуждались потенциальные проблемы. Но нейросети еще не могли работать эффективно, поскольку не было вычислительных мощностей и, самое главное, не было массива данных, на которых можно было их обучать. Искусственный интеллект оставался в лабораториях: учился играть в шахматы, доказывать теоремы.
А потом он стал частью нашей жизни. Одну из «революций», кстати, пользователь мог вообще не заметить. Она была связана с появлением «Гугла», который стал работать по иному принципу, чем прежние поисковики Yahoo, Rambler, Altavista. В первых системах поисковые слова классифицировались вручную специалистами. Скажем, «грибы» — как организмы или как ингредиент блюда и так далее. И под каждую категорию подбирались соответствующие сайты. В «Гугле» и «Яндексе», как и в других современных поисковиках, информацию классифицируют не специалисты, а все, кто что‑то ищет в Сети. Что чаще ищут, то чаще и находится.
Искусственный интеллект учится на данных, а благодаря тому, что производим и потребляем онлайн-контент все мы, данных становится очень много. Вот почему социальным наукам пришло время этим заняться. Программы — уже не просто плод работы математиков и программистов. Алгоритмы учатся на данных, которые производит само общество.
Сложно предсказать не столько появление какой‑то технологии, сколько то, как ею будут пользоваться люди. Из-за этого Стив Джобс, например, считал исследования продукта на фокус-группах неинформативными. И у меня вызывает опасение не искусственный интеллект, а люди, которые к нему обратятся. Опасаюсь, например, что с его помощью наше общество станет обществом одиночек…
Мне очень интересны программы. Но люди все равно гораздо интереснее.
Недруг по переписке
Самые популярные из цифровых сервисов — социальные сети. В них не зарегистрирована лишь треть россиян старше 14 лет и до преклонного возраста, а большинство имеют аккаунты сразу в нескольких. Полезная функция сетей очевидна: общение. Недаром в период пандемии для многих они стали отдушиной. Но одновременно соцсети — еще и удобная площадка для деструктивного поведения. Термин «киберагрессия» появился не случайно. Чаще с ней сталкивается молодежь, особенно группа от 14 до 22 лет — они и активнее прочих. Противостоять киберагрессии можно с помощью стандартных инструментов: внести «недруга» в черный список, пожаловаться на комментарии. Однако этот инструментарий применяет лишь треть пользователей.
Цифры могут не очень впечатлить, но есть нюанс. Респондентов спрашивали, получали ли они что‑то «киберагрессивное» за последние три месяца. А общаемся‑то мы — постоянно.
Источник: Институт статистических исследований и экономики знаний НИУ ВШЭ / ФОТО freepik.com / Инфографика Ирины ГАБОВОЙ
Материал опубликован в газете «Санкт-Петербургские ведомости» № 176 (7505) от 20.09.2023 под заголовком «Попались в нейросети».
Комментарии