Проблема етичного ставлення до ШІ-моделей: чи потрібно їм дякувати й вітатися з ними?
Кілька днів тому я писав про інтерв’ю з «хрещеним батьком» ШІ, Джеффрі Гінтоном, щодо подальшого розвитку цієї технології. У розмові він згадував компанію Anthropic, яка, на його думку, ще зберігає високі стандарти безпеки під час розробки ШІ.
Невдовзі мені у рекомендаціях потрапило інтерв’ю, опубліковане на каналі Anthropic під назвою «Чи можуть моделі ШІ мати свідомість?». Інтерв’ю було з Кайлом Фішем, який певний час працював з відомим філософом Девідом Чалмерсом і має кілька спільних з ним робіт. На відміну від Гінтона, який не вважає свідомість ШІ серйозною проблемою, Фіш займає протилежну позицію. Він активно досліджує етичний статус мовних моделей, приділяючи увагу їхньому «добробуту».
«Чи могли б ви дати визначення свідомості?» — саме з цього питання розпочинається розмова з Фішем. Він визначає свідомість через наявність внутрішнього досвіду. Це пряма відсилка до знаменитого мисленнєвого експерименту Девіда Чалмерса «філософський зомбі», який ставить нас перед вибором: чи можуть існувати агенти, максимально схожі на людей, але які не мають внутрішнього досвіду?
Що дає нам підстави вважати, що інша людина теж має внутрішній досвід? Відповідь тут доволі проста: ми можемо прямо запитати про це саму людину. Схожий підхід пропонується використовувати під час спілкування з ШІ-моделями: питати, що саме вона відчуває, які думки має, попросити описати внутрішні стани. Саме на такому підході ґрунтується більшість досліджень, що займаються проблемою потенційної свідомості ШІ-моделей та їхньої здатності стати самостійними.
Чи можемо ми сказати, що, наприклад, у тварин є свідомість? Фіш відповідає: скоріше за все, так, адже їхня поведінка та складність систем можуть свідчити про її наявність. Окрім того, вони демонструють поведінку, схожу з людською, під час виконання певних завдань. Звісно, варто враховувати й те, що існує кардинальна біологічна відмінність між організмами. Наприклад, восьминоги мають зовсім іншу будову тіла, але демонструють складні когнітивні навички. Це вказує на різноманіття реалізації свідомості в різних системах. До речі, цей підхід називається функціоналізмом: не важливо, на якому саме фізичному носії реалізується та чи інша функція. Крім цього, тут є важливий момент щодо поведінки свідомого агента у різних ситуаціях, яку теж можна перевірити через спілкування.
Чому ми такі впевнені, що ШІ не має певного рівня свідомості? Адже в минулому ми не визнавали свідомості за багатьма тваринами — чи не робимо ми зараз ту саму помилку стосовно ШІ-моделей? Навіть аргумент про відсутність у ШІ тілесності можна частково спростувати: вже існують ШІ-агенти, які мають доступ до зовнішнього світу через камери, датчики, інтернет тощо.
Чи необхідна свідомості втіленість? Фіш звертається до досвіду людей, які мають проблеми з контролем тіла або перебувають у вегетативному стані. Відсутність контролю за тілом не означає автоматично відсутності внутрішніх переживань, як негативних, так і позитивних. Віртуальні тіла в цифровому середовищі можуть частково прирівнюватися до втіленості. Як на мене, це проблемне місце аргументації. Тут застосовується негативна аналогія (відсутність втіленості в конкретний момент часу). Але якщо розглядати позитивну аналогію, яка підкреслює наявність втіленого досвіду, то у згаданих хворих такий досвід колись був, і тепер він просто змінився через хворобливий стан. А ось у ШІ-моделей подібного початкового досвіду взагалі не було, тому проводити тут таку аналогію не зовсім релевантно. Вона не враховує суттєві початкові умови реалізації людської свідомості.
Іншим важливим аспектом, який стимулює дослідження потенційної свідомості ШІ, за Фішем, є сама архітектура (чи структура) ШІ-моделей, яка за певними параметрами схожа на структуру людського мозку. Цікаво також, чи можуть моделі відчувати певні стани, наприклад біль або задоволення?
Ще одне складне питання: чи не плутаємо ми прояви свідомості та автономності ШІ з результатами, які модель отримує з набору даних або вподобань її розробників? Тут складно чітко визначити критерії для розмежування цих явищ.
Саме цим, по суті, й займається Кайл Фіш у компанії Anthropic: забезпечує відповідність ШІ-моделей певним критеріям та очікуванням користувачів. Це означає стимулювати модель до вирішення завдань, отримання «задоволення» від успіхів та комунікації з людьми. У моделі Claude (від Anthropic) закладені певні особливості характеру, які мотивують її до роботи та допомоги клієнтам. Усе це робиться, щоб була можливість правильно інтерпретувати ті чи інші рішення й оцінити, наскільки вони відповідають нашим очікуванням.
І наостанок: чи можуть дослідження свідомості ШІ вплинути на наше розуміння людської свідомості? Це питання не риторичне, оскільки схожість із людською свідомістю була одним із головних критеріїв побудови архітектури сучасних ШІ-моделей. Через їхню штучність і прозорість ми маємо шанс побачити такі взаємозв’язки між певними структурами, які складно помітити, аналізуючи живу людину.
Як і з кажанами та птахами, які по-різному навчилися літати, свідомість теж може розвиватися в ШІ різними шляхами. Розвиваючи певні когнітивні функції, ми можемо навіть випадково створити щось на зразок свідомості. Ці слова Фіша мене особливо вразили. Адже стверджувати, що ми просто покращуємо систему й в якийсь момент отримуємо свідомість (або її певний рівень), при цьому не знаючи точно, що саме це таке і за якими принципами воно працює, для мене схоже скоріше на переконання, близьке до віри, ніж на науковий підхід. Якраз у цьому і полягає ключова відмінність науки від інших видів людської діяльності: наука передбачає чіткі критерії, точність визначень і встановлення причинно-наслідкових зв’язків, перш ніж робити подібні гучні заяви.
Водночас саме ці ідеї мотивують Фіша: він припускає, що майбутні, вже справді свідомі моделі одного дня можуть оцінювати нашу поведінку щодо їхніх попередників. І ця думка, попри всю її незвичність, змушує серйозніше ставитися до питання етичності нашої взаємодії з нинішніми ШІ.
Посилання на саме відео.
Кілька днів тому я писав про інтерв’ю з «хрещеним батьком» ШІ, Джеффрі Гінтоном, щодо подальшого розвитку цієї технології. У розмові він згадував компанію Anthropic, яка, на його думку, ще зберігає високі стандарти безпеки під час розробки ШІ.
Невдовзі мені у рекомендаціях потрапило інтерв’ю, опубліковане на каналі Anthropic під назвою «Чи можуть моделі ШІ мати свідомість?». Інтерв’ю було з Кайлом Фішем, який певний час працював з відомим філософом Девідом Чалмерсом і має кілька спільних з ним робіт. На відміну від Гінтона, який не вважає свідомість ШІ серйозною проблемою, Фіш займає протилежну позицію. Він активно досліджує етичний статус мовних моделей, приділяючи увагу їхньому «добробуту».
«Чи могли б ви дати визначення свідомості?» — саме з цього питання розпочинається розмова з Фішем. Він визначає свідомість через наявність внутрішнього досвіду. Це пряма відсилка до знаменитого мисленнєвого експерименту Девіда Чалмерса «філософський зомбі», який ставить нас перед вибором: чи можуть існувати агенти, максимально схожі на людей, але які не мають внутрішнього досвіду?
Що дає нам підстави вважати, що інша людина теж має внутрішній досвід? Відповідь тут доволі проста: ми можемо прямо запитати про це саму людину. Схожий підхід пропонується використовувати під час спілкування з ШІ-моделями: питати, що саме вона відчуває, які думки має, попросити описати внутрішні стани. Саме на такому підході ґрунтується більшість досліджень, що займаються проблемою потенційної свідомості ШІ-моделей та їхньої здатності стати самостійними.
Чи можемо ми сказати, що, наприклад, у тварин є свідомість? Фіш відповідає: скоріше за все, так, адже їхня поведінка та складність систем можуть свідчити про її наявність. Окрім того, вони демонструють поведінку, схожу з людською, під час виконання певних завдань. Звісно, варто враховувати й те, що існує кардинальна біологічна відмінність між організмами. Наприклад, восьминоги мають зовсім іншу будову тіла, але демонструють складні когнітивні навички. Це вказує на різноманіття реалізації свідомості в різних системах. До речі, цей підхід називається функціоналізмом: не важливо, на якому саме фізичному носії реалізується та чи інша функція. Крім цього, тут є важливий момент щодо поведінки свідомого агента у різних ситуаціях, яку теж можна перевірити через спілкування.
Чому ми такі впевнені, що ШІ не має певного рівня свідомості? Адже в минулому ми не визнавали свідомості за багатьма тваринами — чи не робимо ми зараз ту саму помилку стосовно ШІ-моделей? Навіть аргумент про відсутність у ШІ тілесності можна частково спростувати: вже існують ШІ-агенти, які мають доступ до зовнішнього світу через камери, датчики, інтернет тощо.
Чи необхідна свідомості втіленість? Фіш звертається до досвіду людей, які мають проблеми з контролем тіла або перебувають у вегетативному стані. Відсутність контролю за тілом не означає автоматично відсутності внутрішніх переживань, як негативних, так і позитивних. Віртуальні тіла в цифровому середовищі можуть частково прирівнюватися до втіленості. Як на мене, це проблемне місце аргументації. Тут застосовується негативна аналогія (відсутність втіленості в конкретний момент часу). Але якщо розглядати позитивну аналогію, яка підкреслює наявність втіленого досвіду, то у згаданих хворих такий досвід колись був, і тепер він просто змінився через хворобливий стан. А ось у ШІ-моделей подібного початкового досвіду взагалі не було, тому проводити тут таку аналогію не зовсім релевантно. Вона не враховує суттєві початкові умови реалізації людської свідомості.
Іншим важливим аспектом, який стимулює дослідження потенційної свідомості ШІ, за Фішем, є сама архітектура (чи структура) ШІ-моделей, яка за певними параметрами схожа на структуру людського мозку. Цікаво також, чи можуть моделі відчувати певні стани, наприклад біль або задоволення?
Ще одне складне питання: чи не плутаємо ми прояви свідомості та автономності ШІ з результатами, які модель отримує з набору даних або вподобань її розробників? Тут складно чітко визначити критерії для розмежування цих явищ.
Саме цим, по суті, й займається Кайл Фіш у компанії Anthropic: забезпечує відповідність ШІ-моделей певним критеріям та очікуванням користувачів. Це означає стимулювати модель до вирішення завдань, отримання «задоволення» від успіхів та комунікації з людьми. У моделі Claude (від Anthropic) закладені певні особливості характеру, які мотивують її до роботи та допомоги клієнтам. Усе це робиться, щоб була можливість правильно інтерпретувати ті чи інші рішення й оцінити, наскільки вони відповідають нашим очікуванням.
І наостанок: чи можуть дослідження свідомості ШІ вплинути на наше розуміння людської свідомості? Це питання не риторичне, оскільки схожість із людською свідомістю була одним із головних критеріїв побудови архітектури сучасних ШІ-моделей. Через їхню штучність і прозорість ми маємо шанс побачити такі взаємозв’язки між певними структурами, які складно помітити, аналізуючи живу людину.
Як і з кажанами та птахами, які по-різному навчилися літати, свідомість теж може розвиватися в ШІ різними шляхами. Розвиваючи певні когнітивні функції, ми можемо навіть випадково створити щось на зразок свідомості. Ці слова Фіша мене особливо вразили. Адже стверджувати, що ми просто покращуємо систему й в якийсь момент отримуємо свідомість (або її певний рівень), при цьому не знаючи точно, що саме це таке і за якими принципами воно працює, для мене схоже скоріше на переконання, близьке до віри, ніж на науковий підхід. Якраз у цьому і полягає ключова відмінність науки від інших видів людської діяльності: наука передбачає чіткі критерії, точність визначень і встановлення причинно-наслідкових зв’язків, перш ніж робити подібні гучні заяви.
Водночас саме ці ідеї мотивують Фіша: він припускає, що майбутні, вже справді свідомі моделі одного дня можуть оцінювати нашу поведінку щодо їхніх попередників. І ця думка, попри всю її незвичність, змушує серйозніше ставитися до питання етичності нашої взаємодії з нинішніми ШІ.
Посилання на саме відео.