Искусственный интеллект против человеческого: говорим об этике и цифровом «райе»

Искусственный интеллект против человеческого — Марианна Конина

Риски и подводные камни: почему искусственный интеллект — не вселенское благо?


Искусственный интеллект — это не про игрушку-чат, который пишет вступительные тесты или отвечает на вопросы. Далеко не всегда о делегировании рутинных задач и даже не о безопасности. Эту колонку я пишу уже после того, как все желающие спросили ChatGPT, что он о них знает. Меня сначала удивляли такие запросы, ведь можно поинтересоваться историей архитектурного памятника, культурными отличиями народов или просто интересными фактами. А потом вспомнила, что интимные подробности из жизни семейства Кардашьян гораздо больше волнуют массы, чем заслуги Нобелевских лауреатов прошлого года.

Получается, это обычное явление, которое не мешает человечеству эволюционировать. Права женщин, людей разных рас, верований, личных предпочтений — все это здоровые достижения цивилизации. Неограниченные возможности искусственного интеллекта (ИИ) могут нанести вред. Какой именно? Давайте разбираться.

Предубеждения относительно женщин от Amazon

В 2018 году агентство Reuters опубликовало новость о том, что рекрутинговая программа компании Amazon, работающая на ИИ, отказала всем женщинам-кандидаткам. Работа над проектом началась еще в 2014 и преследовала цель создания инструмента, который бы ранжировал кандидатов как отели — от одной звезды до пяти. Система сама себя научила отдавать предпочтение кандидатам мужчинам. Она отбраковывала CV, содержащие слова «женский» — например, «капитан женского шахматного клуба» — а также снижала рейтинг обучавшихся в «женских» колледжах.

Гендерные предпочтения были не единственной проблемой. Иногда система предлагала неквалифицированных кандидатов на все виды вакансий. Amazon закрыл этот проект, но информационная повестка дня навязывает нам мнение о надежности ИИ. К сожалению, он может серьезно ошибаться.

Система учится на массиве исторической информации. А она такова: женщины и представители разных рас имели ограниченные права, нации сталкивались с нетерпимостью и даже уничтожением. Если человек не будет корректировать эти нюансы, нас ждет цивилизационный откат. Но кто ставит машине задачи? Какие критерии используются? И почему эти критерии можно назвать справедливыми?

Доступ к транспорту только для избранных

С 2014 г. в Китае экспериментируют с программой социального рейтинга. Благодаря использованию большого количества персональных данных и системы распознавания лиц, правительство Китая может наказывать людей за плохое поведение и побуждать к «правильным» действиям.

Наиболее освещенные в медиа эксперименты выглядят благородно. Люди, которые имеют неоплаченные счета или штрафы за парковку или ведут себя социально неприемлемо, столкнутся с замедлением скорости интернета, будут лишены права покупать авиабилеты и ограничены в доступе к общественному транспорту.

В списке плохих проявлений — громкое прослушивание музыки в публичных местах, курение в неотведенном месте, покупка слишком большого количества видеоигр (кто определяет, где начинается «слишком» — отдельный вопрос), постинг фейковых новостей, в частности, связанных с терроризмом и безопасностью аэропортов. Сюда же еда в общественном транспорте, нарушение правил дорожного движения.

Более того, некоторые студенты, отказавшиеся от военной службы, были не допущены к получению высшего образования из-за системы мониторинга, так же, как и дети родителей с низким социальным рейтингом. Одного студента так даже отстранили от обучения из-за того, что его отец не вовремя оплачивал кредиты.

Послушные граждане тоже имеют свои бонусы. Например, скидка на коммунальные услуги, аренда автомобилей или гостиниц без внесения депозита, более выгодные проценты от банков. Из неожиданного — продвижение профайла на сайте знакомств.

Такая система меня пугает, ведь выгонять студента из ВУЗа из-за того, что система заподозрила проблемы в делах его отца — абсурд. Как работает алгоритм, какие критерии и как оценивает — закрытая информация. Следующий шаг — наказывать за легкомысленные покупки, «неправильные» публикации в соцсетях или любой другой вид «непослушания». А хуже всего — что это определяет программа, которая не может предусмотреть все обстоятельства, без интуиции и эмпатии.

Суд с человеческим лицом

Возможно, именно из-за слепого доверия к алгоритмам в одном из округов Хьюстона власти проиграли суд школьным учителям. Ошибка чиновников стоила бюджету $237 тыс. Желание автоматизировать систему оценки преподавания привело экспериментаторов к программе на базе ИИ. Естественно, с засекреченным алгоритмом. В течение четырех лет система определяла, каких учителей премировать и увольнять. Люди не знали, как им начисляются баллы, не имели права и возможности обжаловать увольнение или несправедливую оценку.

Среди неэффективных оказались те, кого хвалили родители, любили дети, награждали профессиональные сообщества. В конце концов учителя создали инициативную группу и нашли способ судиться с местными чиновниками из-за неадекватных решений. Судья принял доводы пострадавших и постановил выплатить компенсации.

Или другой медийный случай, когда судья поступил справедливо, а не по правилам. 96-летний мужчина привез своего онкобольного сына в больницу на процедуры. Не заметил каких-то знаков и превысил скорость в школьной зоне. Его за это оштрафовали, потому что есть факт нарушения. И ИИ поступил бы так же. Но на заседании судья, учитывая обстоятельства, отменил штраф.

На то и есть человек, чтобы смотреть поглубже. За человеком должно оставаться последнее слово. Потому что невозможно заложить все варианты. Человек — это волеизъявление, хочу / не хочу, буду / не буду. Это его право. Конечно, решение принимать или нет ту или иную систему остается за людьми. Но опыт последней пандемии, больше похожей на социальный эксперимент, свидетельствует, что людям могут предложить выбор без выбора.

Законодательные ограничения обучения ИИ

Волна восторга относительно будущего, которое наступило, уже стихла, но все равно случаются наивные предположения относительно оптимизации расходов на коммуникационщиков. «Модель — читаю я — применима для генерирования контента для соцсетей, позволяя предприятиям быстро и эффективно создавать высококачественный контент».

Мы должны тренироваться различать текст человека и робота. Звучит смешно, потому что несовершенство и некоторая пластмассовость написанного системой бросается в глаза. Впрочем, не забывайте, с какой страстью массовая аудитория потребляет очевидные фейки, как самоотверженно идет на самые примитивные манипуляции. О магическом мышлении и перекладывании ответственности на кого-то и говорить нечего.

Нам нужны законы, чтобы система не превратила эмоциональные массы в оружие массового уничтожения ради экспериментов или выгод каких-то групп людей. По меньшей мере, нужно определить правила обучения программ, мотивационные аспекты, этические моменты — чтобы снова не иметь дел с Гитлером или расовой дискриминацией. Совершенствуем инструмент чтобы что? Какие задачи мы планируем решать с помощью мощной машины? И снова вопрос, как широкие массы смогут экологически взаимодействовать с системой, которая в десятки раз умнее?

Именно об этом говорится в письме общественной организации Future of Life Institute, которое подписали топовые исследователи ИИ и Илон Маск. «Готовы ли мы, — говорит текст, — разрешить машинам наполнить информационные каналы пропагандой и ложью? Должны ли рисковать потерей цивилизационного контроля? Такие решения нельзя делегировать лидерам, которых мы не выбирали. Мощные системы ИИ должны разрабатываться только тогда, когда мы уверены, что их влияние будет положительным, а риски — управляемыми».

Здоровая и верная аргументация. В мире, где люди не читают документы, тиражирование мощных машин — реальная опасность. С другой стороны, разумные алгоритмизированные системы способны помочь людям. Как минимум — навести порядок в голове.

Мне отзывается шутка из среды дизайнеров: «Чтобы воспользоваться ИИ, заказчику нужно четко сформулировать запрос. Значит, дизайнеры будут работать еще много-много лет». Ведь даже хайповая «игрушка» ChatGPT интересна как альтернативный поисковик информации. Он действительно может выполнить простые задачи. Но надо толково выписать, что именно ты хочешь получить в результате.

Люди бывают эмоциональными, рассеянными, поверхностными, уставшими. Это естественно, следовательно, не должно быть использовано против них. Именно поэтому так важно, чтобы облегчающие жизнь алгоритмы были доступны для просмотра и дискуссии. Пока это не так. Поэтому вполне справедливо подвести под такие эксперименты законодательную основу. И работать над развитием человеческого интеллекта, а не только искусственного.

Источник: OBOZREVATEL

Подписаться на новости
Последние новости
Продакшн-компания WePlay Studios и лауреат премии "Грэмми" продюсер Лоуренс "Рэнс" Допсон объединяются для создания контента на культурную тематику.
05.03.2024
Отчет по корпоративной социальной ответственности за 2020-2023 годы
01.02.2024
Как некоторым регионам удавалось трансформировать местную экономику благодаря конкретному вектору развития.
20.11.2023