Потреба у (ре)концептуалізації.
Поступовий розвиток штучного інтелекту та зростання його популярності в академічній спільноті не лише надали новий імпульс до різноманітних філософських концептуалізацій, а й створили специфічну епістемологічну пастку. Зазвичай, гуманітарний термін «агент» позначав суб’єкта, здатного до автономної відповідальної дії. При перенесенні в комп’ютерні науки термін зберіг конотації автономності, хоча позначав вже принципово інший феномен – окрему алгоритмічно-статистичну систему.
Подібна термінологічна двозначність ускладнює специфіку розуміння нами форм агентності, адже зараз системи великих мовних моделей або ШІ чатботів ефективно справляються із імітативними процесами та переконливо демонструють поведінку, яка виглядає автономною. Ця «пастка» посилюється схильністю людей приписувати складним інтелектуальним системам людські характеристики, антропоморфізуючи таким чином їх до рівня соціального агента. Такий стан дій призводить до завищених очікувань, помилкових інтерпретацій поведінки систем ШІ та потенційно небезпечних рішень щодо делегування їм відповідальності у критично важливих сферах.
Для того щоб уникнути непорозумінь щодо меж між інструментом і агентом, потрібно підняти дискусію та переосмислити концептуальні рамки складних інтелектуальних систем, а також визнати, що форми агентності зміщуються із жорстких бінарних позицій до певного спектра.
Агент.
Концепт агентності виник в суспільній традиції з фундаментальної потреби описати здатність певної сутності до самостійної дії. У найширшому розумінні, ми називаємо агентом того, хто може впливати на світ через власні рішення та дії. У цьому контексті агентність передбачає не просто здатність до дії, але й певний рівень автономності у виборі цих дій – спроможності ініціювати зміни, а не просто бути їхнім провідником.
Саме слово «агент» має латинське походження (agens, agentis — діючий) і було широко розповсюджено у середньовіччі у виключно юридичному контексті. Лише у Новий Час концепт агента було взято на обґрунтування різними моральними філософами. Класичним прикладом тут буде «моральний агент» у Канта, де суб’єкт діє через призму автономії, відповідно відповідальності перед універсальними моральними законами. У двадцятому столітті термін агента активно починає запозичуватися соціальними науками. Агентність у цьому випадку стосується здатності соціальних акторів змінювати або впливати на соціальні структури. Уславлений соціолог П’єр Бурдьє описує агентність у контексті габітусу (Habitus) — «системи диспозицій, що формується під впливом соціальних структур, але також дозволяє агенту діяти і змінювати ці структури» (2).
З розвитком робототехніки у середині двадцятого століття царина комп’ютерних наук запозичує термін агента для позначення певної інтелектуальної системи, яка здатна сприймати своє оточення за допомогою сенсорів – у випадку програмного агента це можуть бути функції зчитування даних – і впливати на нього через виконавчі ефектори (функції виведення або дії). Це може бути як фізичний робот, так і програмний алгоритм. Згідно зі Стюартом Расселом та Пітером Норвігом, ключовими характеристиками агента є певний ступінь автономії та здатність діяти цілеспрямовано для досягнення своїх цілей або покрокового алгоритмічного виконання поставлених задач (4).
Хоча інтелектуальний агент має певну міру автономності (в контексті комп’ютерних наук це означає здатність функціонувати без постійного прямого керування з боку людини), проте комп’ютерна теорія має певну прогалину в ототожненні агента й агентності. Важливо підкреслити, що технічне розуміння агента в комп’ютерних науках, хоч і запозичує термінологію з соціальних та філософських проєктів, описує принципово інший феномен. Це створює певні епістемологічні виклики, особливо в контексті розвитку штучного інтелекту, де людське сприйняття меж між соціальним та технічним стали все більш контингентними.
Детермінізм та емерджентна поведінка.
У сучасному етичному дискурсі про свободу волі ми зазвичай виходимо із позиції детермінізму – природної причинної обумовленості усіх людських акцій. Штучні інтелектуальні системи дещо співвідносяться з нашим розумінням детермінізму. Проте фундаментальна відмінність між людською та машинною логікою полягає в природі їхнього детермінізму. Людська свідомість будується на принципах культурної, біологічної та соціальної обумовленості. Однак позиції компатибілізму, наприклад, стверджують, що навіть за умов жорсткого детермінізму сама структура людської свідомості створює внутрішній простір для рефлексії та переживання власної свободи. Схожим чином працює й штучний інтелект: хоча він функціонує в рамках алгоритмічного та статистичного детермінізму, він має потенціал проявляти найскладніші форми поведінки, які не вписуються в його програмну обумовленість.
Наприклад, чатботи на основі трансформерної архітектури, як-от GPT-3/4. Їхня здатність генерувати зв’язні та змістовні тексти ґрунтується на детермінованих алгоритмах. Однак, завдяки навчанню на величезних масивах текстових даних, ці моделі вже продемонстрували дивовижну адаптивність, креативність та «розуміння» контексту, які дуже натягнуто можна звести до окремих алгоритмічних компонентів. Ця якість «лінгвістичної свідомості» є радше емерджентним ефектом роботи системи як цілого.
Таким чином виникає перший парадокс: система може демонструвати складну, навіть креативну поведінку, але ця поведінка завжди є результатом попередньо заданих параметрів.
Агент без агентності.
Вбираючи до уваги алгоритмічну детермінованість й внутрішню емерджентність, здається проблематичним стверджувати про повноцінну агентність ШІ-агентів. На тлі фундаментального протиріччя між зовнішніми проявами та внутрішньою природою варто диференціювати складні інтелектуальні системи через термін «агент без агентності». Як вже було вказано вище, це базується на особливості комп’ютерної теорії розводити поняття агента та агентності.
По-перше, ШІ не має власних цілей та бажань – всі його наміри є проекцією людських намірів, закладених у систему. По-друге, він не має справжнього розуміння наслідків своїх дій – його «етичність» є результатом програмування, а не внутрішніх моральних переконань. По-третє, відсутня справжня відповідальність – система не може нести моральну відповідальність за свої дії у тому сенсі, в якому її несуть люди.
У філософії свідомості є відомий принцип альтернативних даних – здатність людини робити вибір між альтернативними варіантами дій на основі власних преференцій та/або ціннісних орієнтацій. На відміну від людської свідомості, прийнято стверджувати, що ШІ позбавлений інтенціональності, самосприйняття або ментальних станів, які б надавали його діям суб’єктивного cенсу та ціннісного виміру.
Тут доречно звернутися до концепції «інтенційної установки» (intentional stance) Деніела Деннета. За Деннетом, ми схильні наділяти агентністю ті системи, які поводяться достатньо складно і гнучко, щоб їх можна було описати в термінах переконань, бажань і намірів. Іншими словами, ми застосовуємо до них «народну психологію», приписуючи їм ментальні стани для того, щоб передбачати та пояснювати їхні дії (3).
Таким самим чином ми мислимо ШІ-системи, це не є простою психологічною антропоморфізацією, а продуктивною стратегією, яка допомагає пояснювати поведінку складних систем. Коли ми трактуємо дії ШІ як цілеспрямовані та раціональні, ми отримуємо евристично потужний інструмент для розуміння їхнього функціонування, навіть якщо на фундаментальному рівні вони залишаються детерміністичними алгоритмами.
Коли ми спілкуємося з чатботом, який демонструє людську мову та адаптивність, або бачимо, як алгоритм знаходить творчі рішення складних проблем, у нас виникає інтуїтивне відчуття, що за цим стоїть якась «особистість» з власними намірами та цілями. Але з точки зору Деннета, таке відчуття є радше продуктом нашої інтерпретативної установки, аніж відображенням дійсного стану речей.
Парадокс.
Головна проблема, яка повстає перед питанням «агента без агентності», є перцептивний парадокс його сприйняття. Парадокс виникає на перетині двох фундаментальних властивостей ШІ: здатності до переконливого контекстуальної імітування та емерджентної природи його функціонування.
Про здатність ШІ чатботів владно імітувати людський діалог, демонструвати зацікавленість, висловлювати «власні» думки та навіть проявляти подобу емоційної реакції було вже багато написано й ще більше сказано. Так, наприклад, у жовтневій статті я вже намагався розкрити питання про межі імітації ШІ (7).
Проте, навіть попри усвідомлення реальної алгоритмічної запрограмованості штучних систем, їхня поведінка досі сприймається людьми як прояв автономності та агентності, притаманних свідомим суб’єктам. Тут ми стикаємося з певним парадоксом: чи можемо ми ототожнювати імітацію автономності з її реальною наявністю?
З позиції функціоналізму можна стверджувати, що здатність ШІ-систем до переконливої імітації людської агентності якраз і свідчить про наявність у них певних функціональних аналогів ментальних станів та процесів. Тобто, якщо ШІ поводиться в істотних аспектах подібно до свідомого агента, то ми маємо підстави розглядати його як особливий тип агентності, нехай і відмінний від людської.
Однак такий підхід дещо недооцінює роль інтенціональності та феноменального досвіду в конституюванні справжньої агентності. Навіть найбільш переконлива імітація розуміння, цілеспрямованості та осмисленості дій ще не гарантує наявності автономної внутрішньої перспективи, Я-досвіду, здатності формувати власні цілі та смисли. Тому, можливо, більш адекватно було б говорити не стільки про агентність ШІ, скільки про моделювання чи симуляцію агентності.
Додаткову складність цій проблемі надають емерджентні властивості ШІ-систем. Емерджентність передбачає виникнення на рівні системи нових, непередбачуваних властивостей та форм поведінки, що не зводяться до простої суми її компонентів.
Хід 37 у грі в го проти Лі Седоля є класичним прикладом емерджентної поведінки ШІ. У другій грі матчу AlphaGo зробив хід, який спочатку здався експертам лімітом по глибині перебору – настільки він відхилився від традиційної стратегії гри в го. Однак цей хід виявився надзвичайно ефективним і фактично визначив результат партії. Зазвичай шахові інтелектуальні системи мають запрограмоване «передбачення» ходів наперед; коли система заходить у бар’єр цих ходів, усі наступні ходи будуть вважатися форсованими, тобто грою від ходів противника. Хід 37 не був запрограмований розробниками і не зустрічався в іграх професійних гравців, на яких навчалася AlphaGo. Натомість система розвинула «власне» розуміння гри через навчання з підкріпленням та аналіз мільйонів партій. Таким чином, Хід 37 є проявом емерджентності мислення, що зумовляє нас розглядати ШІ вже не як суто алгоритмічні, детерміновані та передбачувані системи. Ми маємо визнати їхній потенціал до самоорганізації, адаптації та генерації нових патернів поведінки (8).
Проте, чи означає це, що в процесі виконання проміжних, локальних завдань ШІ-агент справді керується «власними», відмінними від цілей користувача, мотивами та інтенціями? Чи може емерджентний характер ШІ також означати прояв складного рівня автономності? Відповідь на це питання вимагає переосмислення самого поняття агентності.
На мій скромний погляд, наявність цього парадоксу свідчить про необхідність розробки більш гнучких та багаторівневих моделей розуміння автономності та агентності. Замість бінарного поділу на «наявність» чи «відсутність» цих властивостей, доцільно розглядати спектр різних ступенів та форм автономності. Деякі форми ШІ-автономності можуть наближатися до людиноподібної агентності, наприклад, здатність адаптувати поведінку до контексту, навчатися на власному досвіді, знаходити креативні рішення тощо. Інші ж форми лишаються суто функціональними, обмежуючись слідуванням чітко визначеним алгоритмам та інструкціям.
ВИСНОВОК
Розглядаючи ШІ-системи крізь призму концепції (без)агентності, можна все ж констатувати підтвердження тези про відсутність у машин справжнього розуміння та інтенціональності. У цьому сенсі «Китайська кімната» (Chinese room) Сьорла дає хорошу метафору для опису онтологічного статусу ШІ-агентів: ззовні їхня діяльність виглядає осмисленою та цілеспрямованою, але всередині відбувається лише формальна обробка символів за закладеними правилами, що лише підкреслює їхній інструментальний характер (5).
Це є більш продуктивним підходом, адже інструментальна природа ШІ не заперечує його потужного потенціалу як когнітивного знаряддя людини. Якщо вводити метафоричну аналогію, то подібно до того, як рука людини доповнюється інструментом для розширення її фізичних можливостей, ШІ постає продовженням людського розуму, що дозволяє вирішувати надскладні задачі та віднаходити приховані закономірності у великих масивах даних.
Коли ми говоримо, що ШІ – це «агент без агентності», ми вказуємо на чіткий розрив між термінологією й сутністю. Ми маємо на увазі, що попри переконливу імітацію людиноподібної поведінки, внутрішньо ШІ лишається маніпулятором знаків, позбавленим автономної свідомості.
Ось чому, коли ми кажемо про штучних агентів, нам тепер слід договорювати…без агентності.
Автор: Ілля Рєпін
Бібліографія:
- Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
- Bourdieu, P. (1977). Outline of a Theory of Practice. Cambridge University Press.
- Dennett, D. C. (1987). The Intentional Stance. MIT Press.
- Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach.
- Searle, J. R. (1995). The Construction of Social Reality. Free Press.
- Turing, A. M. (1950). Computing Machinery and Intelligence.
- https://plomin.club/emulated-unconscious/
- https://www.johnmenick.com/writing/move-37-alpha-go-deep-mind.html