Штучний інтелект проти людського: говоримо про етику та цифровий «рай»

Штучний інтелект проти людського — Маріанна Коніна

Ризики та підводні камені: чому штучний інтелект — не вселенське благо?


Штучний інтелект — це не про іграшку-чат, який пише вступні тести чи відповідає на питання. Далеко не завжди про делегування рутинних задач і навіть не про безпеку. Цю колонку я пишу вже після того, як усі охочі спитали в ChatGPT, що він про них знає. Мене спершу дивували такі запити, адже можна поцікавитися історією архітектурної пам’ятки, культурними відмінностями народів чи просто цікавими фактами. А потім згадала, що інтимні подробиці з життя сімейства Кардаш’ян набагато більше хвилюють маси, ніж заслуги минулорічних Нобелівських лауреатів.

Отже, маємо звичайне явище, яке не заважає людству еволюціонувати. Права жінок, людей різних рас, вірувань, особистих уподобань — усе це здорові надбання. Натомість необмежені можливості штучного інтелекту (ШІ) можуть наробити шкоди. Якої саме? Давайте розбиратися.

Упередження щодо жінок від Amazon

У 2018 році агенція Reuters опублікувала новину про те, що рекрутингова програма компанії Amazon, яка працює на ШІ, відмовила всім жінкам-кандидаткам. Робота над проєктом почалася ще в 2014 і мала на меті створення інструменту, який би ранжував кандидатів як готелі — від однієї зірки до п’яти. Система сама себе навчила віддавати перевагу кандидатам чоловікам. Отже, відбраковувала CV, які містили слова «жіночий» — наприклад, «капітан жіночого шахового клубу» — а також знижувала рейтинг тих, хто навчався в «жіночих» коледжах.

Гендерна упередженість була не єдиною проблемою. Часом система пропонувала некваліфікованих кандидатів на всі види вакансій. Amazon закрив цей проект, але інформаційний порядок денний нав’язує нам думку про надійність ШІ. На жаль, він може серйозно помилятися.

Система навчається на масиві історичної інформації. А вона така: жінки та представники різних рас мали обмежені права, нації стикалися з нетерпимістю і навіть знищенням. Якщо людина не коригуватиме ці нюанси, нас чекає цивілізаційний відкат. Але хто ставить машині задачі? Які критерії застосовуються? І чому ці критерії можна назвати справедливими?

Доступ до транспорту тільки для обраних

З 2014 року в Китаї експериментують із програмою соціального рейтингу. Завдяки використанню великої кількості персональних даних та системи розпізнавання облич уряд Китаю може карати людей за погану поведінку та спонукати до «правильних» дій.

Найбільш висвітлені в медіа експерименти виглядають благородно. Люди, які мають неоплачені рахунки чи штрафи за паркування, поводяться соціально неприйнятно, матимуть повільніший інтернет, будуть позбавлені права купувати авіаквитки й обмежені в доступі до громадського транспорту.

У переліку поганих проявів — гучне прослуховування музики в публічних місцях, куріння у невідведеному місці, покупка занадто великої кількості відеоігор (хто визначає, де починається «занадто» — окреме питання), постинг фейкових новин, зокрема пов’язаних із тероризмом та безпекою аеропортів. Сюди ж — їжа у громадському транспорті, порушення правил дорожнього руху.

Ба більше, деякі студенти, які відмовилися від військової служби, були не допущені до отримання вищої освіти завдяки системі моніторингу, так само, як і діти батьків із низьким соціальним рейтингом. Одного студента так навіть усунули від навчання через те, що його батько не вчасно оплачував кредити.

Слухняні громадяни теж мають свої бонуси. Наприклад, знижка на комунальні послуги, оренда автомобілів чи готелів без внесення депозиту, вигідніші відсотки від банків. Із несподіваного — просування профайлу від сайту знайомств.

Така система мене лякає, адже виганяти студента з ВНЗ через те, що система запідозрила негаразди у справах його батька — абсурд. Як саме працює алгоритм, які критерії і як оцінює — закрита інформація. Наступний крок — карати за легковажні покупки, «неправильні» публікації в соцмережих і ще казна-що. А найгірше — що це визначає програма, яка не може передбачити всіх обставин, не має інтуїції й емпатії.

Суд із людським обличчям

Можливо, саме через сліпу довіру до алгоритмів в одному з округів Г’юстона влада програла суд шкільним учителям. Помилка чиновників коштувала бюджету $237 тис. Бажання автоматизувати систему оцінювання викладання привела експериментаторів до програми на базі ШІ. Звісно, із засекреченим алгоритмом. Протягом чотирьох років система визначала, яких вчителів преміювати та звільняти. Люди не знали, як їм нараховуються бали, не мали права й можливості оскаржувати звільнення чи несправедливе оцінювання.

Серед неефективних опинилися ті, кого хвалили батьки, любили діти, нагороджували професійні спільноти. Зрештою, вчителі створили ініціативну групу і знайшли спосіб позиватися до місцевих чиновників через неадекватні рішення. Суддя прийняв аргументи постраждалих і постановив виплатити компенсації.

Або інший медійний випадок, коли суддя вчинив справедливо, а не за правилами. 96-річний чоловік привіз свого онкохворого сина до лікарні на процедури. Не помітив якихось знаків і перевищив швидкість у шкільній зоні. Його за це оштрафували, бо є факт порушення. І ШІ вчинив би так само. Але на засіданні суддя, врахувавши обставини, скасував штраф.

На те і є людина, щоб дивитися глибше. За людиною має лишатися останнє слово. Бо неможливо закласти всі варіанти. Бо людина — це волевиявлення, хочу / не хочу, буду / не буду. Також це її право. Звісно, рішення приймати чи ні ту чи іншу систему залишається за людьми. Але досвід останньої пандемії, який більше схожий на соціальний експеримент, свідчить, що людям можуть запропонувати вибір без вибору.

Законодавчі обмеження навчання ШІ

Хвиля захвату майбутнім, яке настало сьогодні, вже стихла, та все одно трапляються наївні припущення щодо оптимізації витрат на комунікаційників. «Модель — читаю я — може бути застосована для генерування контенту для соцмереж, дозволяючи підприємствам швидко та ефективно створювати високоякісний контент».

Ми маємо тренуватися розрізняти текст людини й робота. Звучить смішно, бо недосконалість і певна пластмасовість написаного системою впадає в око. Втім, не забуваймо, з якою пристрастю масова аудиторія споживає найочевидніші фейки, як самовіддано йде на найпримітивніші маніпуляції. Про магічне мислення та перекладання відповідальності на когось і казати годі.

Нам потрібні закони, щоб задля чиїхось експериментів чи вигод система не перетворила емоційні маси на зброю масового знищення. Щонайменше потрібно визначити правила навчання програм, мотиваційні аспекти, етичні моменти — щоби знову не мати справ з Гітлером чи расовою дискримінацією. Вдосконалюємо інструмент щоби що? Які задачі ми плануємо вирішувати за допомогою надпотужної машини? І знову питання, як широкі маси зможуть екологічно взаємодіяти з системою, яка в десятки разів розумніша?

Саме про це йдеться у листі громадської організації Future of Life Institute, який підписали топові дослідники ШІ та Ілон Маск. «Чи готові ми, — говорить текст, — дозволити машинам наповнити інформаційні канали пропагандою та брехнею? Чи повинні ризикувати втратою цивілізаційного контролю? Такі рішення не можна делегувати лідерам, яких ми не обрали. Потужні системи ШІ мають розроблятися тільки тоді, коли ми певні, що їхній вплив буде позитивним, а ризики — керованими».

Здорова і правильна аргументація. У світі, де люди не читають угоди, тиражування потужних машин — реальна небезпека. З іншого боку, розумні алгоритмізовані системи здатні допомогти людям. Як мінімум — навести лад у голові.

Мені відгукується жарт із середовища дизайнерів: «Щоби скористатися ШІ, замовнику треба чітко сформулювати запит. Отже, дизайнери матимуть роботу ще багато-багато років». Бо ж навіть хайпова «іграшка» ChatGPT цікавий як альтернативний пошуковик інформації. Він і справді може виконати прості завдання. Але треба до ладу виписати, що конкретно ти хочеш отримати в результаті.

Люди бувають емоційними, неуважними, поверховими, втомленими. Це природно, отже, не має бути використане проти них. Саме тому так важливо, щоб алгоритми, які полегшують життя, були доступними для перегляду та дискусії. Наразі це не так. Тому цілком справедливо підвести під такі експерименти законодавче підґрунтя. І працювати над розвитком людського інтелекту, а не тільки штучного.

Джерело: OBOZREVATEL

Підписатися на новини
Останні новини
Продакшн-компанія WePlay Studio і лауреат премії «Ґреммі» продюсер Лоуренс «Ренс» Допсон об’єднуються задля створення більше контенту на культурну тематику.
05.03.2024
Звіт із корпоративної соціальної відповідальності за 2020-2023 роки
01.02.2024
Як деяким регіонам вдавалося трансформувати місцеву економіку завдяки конкретному вектору розвитку.
20.11.2023