Риски и подводные камни: почему искусственный интеллект — не вселенское благо?
Искусственный интеллект — это не про игрушку-чат, который пишет вступительные тесты или отвечает на вопросы. Далеко не всегда о делегировании рутинных задач и даже не о безопасности. Эту колонку я пишу уже после того, как все желающие спросили ChatGPT, что он о них знает. Меня сначала удивляли такие запросы, ведь можно поинтересоваться историей архитектурного памятника, культурными отличиями народов или просто интересными фактами. А потом вспомнила, что интимные подробности из жизни семейства Кардашьян гораздо больше волнуют массы, чем заслуги Нобелевских лауреатов прошлого года.
Получается, это обычное явление, которое не мешает человечеству эволюционировать. Права женщин, людей разных рас, верований, личных предпочтений — все это здоровые достижения цивилизации. Неограниченные возможности искусственного интеллекта (ИИ) могут нанести вред. Какой именно? Давайте разбираться.
Предубеждения относительно женщин от Amazon
В 2018 году агентство Reuters опубликовало
Гендерные предпочтения были не единственной проблемой. Иногда система предлагала неквалифицированных кандидатов на все виды вакансий. Amazon закрыл этот проект, но информационная повестка дня навязывает нам мнение о надежности ИИ. К сожалению, он может серьезно ошибаться.
Система учится на массиве исторической информации. А она такова: женщины и представители разных рас имели ограниченные права, нации сталкивались с нетерпимостью и даже уничтожением. Если человек не будет корректировать эти нюансы, нас ждет цивилизационный откат. Но кто ставит машине задачи? Какие критерии используются? И почему эти критерии можно назвать справедливыми?
Доступ к транспорту только для избранных
С 2014 г. в Китае экспериментируют с программой социального рейтинга. Благодаря использованию большого количества персональных данных и системы распознавания лиц, правительство Китая может наказывать людей за плохое поведение и побуждать к «правильным» действиям.
Наиболее освещенные в медиа эксперименты выглядят благородно. Люди, которые имеют неоплаченные счета или штрафы за парковку или ведут себя социально неприемлемо,
В списке плохих проявлений — громкое прослушивание музыки в публичных местах, курение в неотведенном месте, покупка слишком большого количества видеоигр (кто определяет, где начинается «слишком» — отдельный вопрос), постинг фейковых новостей, в частности, связанных с терроризмом и безопасностью аэропортов. Сюда же еда в общественном транспорте, нарушение правил дорожного движения.
Более того, некоторые
Послушные граждане тоже имеют свои
Такая система меня пугает, ведь выгонять студента из ВУЗа из-за того, что система заподозрила проблемы в делах его отца — абсурд. Как работает алгоритм, какие критерии и как оценивает — закрытая информация. Следующий шаг — наказывать за легкомысленные покупки, «неправильные» публикации в соцсетях или любой другой вид «непослушания». А хуже всего — что это определяет программа, которая не может предусмотреть все обстоятельства, без интуиции и эмпатии.
Суд с человеческим лицом
Возможно, именно из-за слепого доверия к алгоритмам в одном из округов Хьюстона власти проиграли суд школьным учителям. Ошибка чиновников стоила бюджету $237 тыс. Желание автоматизировать систему оценки преподавания привело экспериментаторов к программе на базе ИИ. Естественно, с засекреченным алгоритмом. В течение четырех лет система
Среди неэффективных оказались те, кого хвалили родители, любили дети, награждали профессиональные сообщества. В конце концов учителя создали инициативную группу и нашли способ судиться с местными чиновниками из-за неадекватных решений. Судья принял доводы пострадавших и постановил выплатить компенсации.
Или другой медийный случай, когда судья поступил справедливо, а не по правилам. 96-летний мужчина
На то и есть человек, чтобы смотреть поглубже. За человеком должно оставаться последнее слово. Потому что невозможно заложить все варианты. Человек — это волеизъявление, хочу / не хочу, буду / не буду. Это его право. Конечно, решение принимать или нет ту или иную систему остается за людьми. Но опыт последней пандемии, больше похожей на социальный эксперимент, свидетельствует, что людям могут предложить выбор без выбора.
Законодательные ограничения обучения ИИ
Волна восторга относительно будущего, которое наступило, уже стихла, но все равно случаются наивные предположения относительно оптимизации расходов на коммуникационщиков. «Модель —
Мы должны тренироваться различать текст человека и робота. Звучит смешно, потому что несовершенство и некоторая пластмассовость написанного системой бросается в глаза. Впрочем, не забывайте, с какой страстью массовая аудитория потребляет очевидные фейки, как самоотверженно идет на самые примитивные манипуляции. О магическом мышлении и перекладывании ответственности на кого-то и говорить нечего.
Нам нужны законы, чтобы система не превратила эмоциональные массы в оружие массового уничтожения ради экспериментов или выгод каких-то групп людей. По меньшей мере, нужно определить правила обучения программ, мотивационные аспекты, этические моменты — чтобы снова не иметь дел с Гитлером или расовой дискриминацией. Совершенствуем инструмент чтобы что? Какие задачи мы планируем решать с помощью мощной машины? И снова вопрос, как широкие массы смогут экологически взаимодействовать с системой, которая в десятки раз умнее?
Именно об этом говорится в
Здоровая и верная аргументация. В мире, где люди не читают документы, тиражирование мощных машин — реальная опасность. С другой стороны, разумные алгоритмизированные системы способны помочь людям. Как минимум — навести порядок в голове.
Мне отзывается шутка из среды дизайнеров: «Чтобы воспользоваться ИИ, заказчику нужно четко сформулировать запрос. Значит, дизайнеры будут работать еще много-много лет». Ведь даже хайповая «игрушка» ChatGPT интересна как альтернативный поисковик информации. Он действительно может выполнить простые задачи. Но надо толково выписать, что именно ты хочешь получить в результате.
Люди бывают эмоциональными, рассеянными, поверхностными, уставшими. Это естественно, следовательно, не должно быть использовано против них. Именно поэтому так важно, чтобы облегчающие жизнь алгоритмы были доступны для просмотра и дискуссии. Пока это не так. Поэтому вполне справедливо подвести под такие эксперименты законодательную основу. И работать над развитием человеческого интеллекта, а не только искусственного.
Источник: