У міру того як штучний інтелект все швидше проникає в усі сфери сучасного життя, домінує думка про його неминучість. З появою більш інтелектуальних моделей і повної автоматизації багато хто відчуває, що їх кидає у майбутнє, яке перекроїли машини, що перевершують людей практично в усьому. Але все частіше фахівці в галузі технологій висловлюють альтернативні погляди – така траєкторія розвитку не є здоровою, стійкою або неминучою. Страх перед неконтрольованою надрозумністю починає виглядати не як безпосередня загроза, а як відволікання від реальних ризиків: культурної гомогенізації, дезінформації та надмірної залежності інституцій від систем, які ніколи не зможуть працювати як люди.
Ден Гаузер (Dan Houser), співзасновник Rockstar Games, нещодавно порівняв нинішній бум із хворобою коров'ячого сказу. Він сказав, що це система, яка живиться сама собою і зрештою стане фундаментально нестабільною. Це провокативна аналогія, яка відкриває глибше питання, що може принести деяким полегшення: а що, якщо недоліки, що з'являються в ШІ, не є помилками, які потрібно виправити, а є структурними обмеженнями, які завадять цій технології коли-небудь по-справжньому «захопити світ»?
Аналогія з коров'ячим сказом: чи пожирає штучний інтелект сам себе?
Порівняння Гаузера базується на конкретному історичному уроці. Коров'ячий сказ поширився, коли худобу годували переробленими рештками інших тварин, що створило замкнутий цикл деградованого біологічного матеріалу, який зрештою призвів до катастрофічного неврологічного збою. Його аргумент полягає в тому, що штучний інтелект, замість того щоб стати непереможним і захопити світ, насправді дрейфує в подібному напрямку. Моделі все частіше навчаються на синтетичних результатах, які раніше були згенеровані іншими системами ШІ, а не на знаннях, створених людьми.
По суті, у міру зростання автоматизованих моделей все більше того, що ми бачимо в Інтернеті, генерується тими самими системами. Таким чином, у міру подальшого навчання нових і наявних моделей, вони фактично лише перетравлюють власні результати.
Дослідники вже задокументували явище, відоме як колапс моделі, коли генеративні системи, які неодноразово навчаються на даних, створених ШІ, з часом стають менш точними, менш різноманітними та більш відірваними від реальності. Замість того щоб поєднувати свій інтелект, системи в кінцевому підсумку випорожнюються, підсилюючи свої початкові помилки та згладжуючи нюанси.
Зростаюча проблема, про яку не говорять лідери технологічної галузі
Маркетинг штучного інтелекту, орієнтований на широку аудиторію, зосереджується на масштабі: більше даних, більше інтеграції, більше параметрів. Однак про що не говорять – так це про зростаючий дефіцит високоякісних навчальних матеріалів, створених людьми. Більша частина відкритого інтернету вже була поглинена наявними моделями, а це означає, що те, що залишилося, все більше забруднюється спамом, автоматизованим шумом та іншими формами контенту штучного інтелекту.
Великі мовні моделі, які не мають доступу до постійно оновлюваного людського внеску, такого як мистецтво, міркування, письмо та справжній життєвий досвід, знаходяться під серйозною загрозою стагнації або регресу. Іронія очевидна: чим більше автоматизованого контенту заповнює Інтернет, тим менш надійним стає Інтернет як джерело навчання.
Критика Гаузера виходить за межі технічної архітектури. Він стверджує, що ті, хто найактивніше виступає за повне впровадження ШІ, часто ізольовані від інтелектуальних та культурних витрат, натомість надаючи пріоритет ефективності над належним розумінням. За його словами, ці керівники є «неповноцінними людьми», які звужують перспективу всередині кіл, що приймають рішення.
Що відеоігри вчать нас про ШІ
Компанія Rockstar Games, співзасновником якої є Гаузер, побудувала свою репутацію на створеній людьми різноманітності, що включає сатиру, культурну текстуру та загальну креативність. Саме ці якості генеративний ШІ не може переконливо відтворити.
Хоча моделі можуть генерувати діалоги, текстури та фрагменти коду, їм бракує внутрішнього розуміння значення, мотивації чи наслідків. Ці якості є необхідними для розповіді історій та побудови світу, і розробники ігор вже давно зіткнулися з обмеженнями штучного інтелекту на практиці. Вони підкреслюють ширшу проблему: штучний інтелект може імітувати форму, але не розуміє контексту. Він може передбачити, що повинно статися далі, але не чому це повинно статися.
Гаузер – лише один із прикладів зростаючої кількості занепокоєних керівників технологічних компаній, які висловлюють подібні думки. Вони часто попереджають, що системи ШІ є крихкими, надмірно розрекламованими та фундаментально не відповідають тому, як насправді працює інтелект.
Впевнені, але помилкові результати часто називають «галюцинаціями». Вони є ознакою того, що ці системи насправді нічого не знають у людському розумінні. Існує також занепокоєння щодо стрімкого зростання витрат на енергію, вузьких місць у передачі даних та зменшення прибутків у міру масштабування моделей. Ходять чутки, що масштабування методом грубої сили та спроби якомога швидшого розширення фактично наближаються до економічних та фізичних меж.
Можливо, заспокійливим є те, що страх перед неконтрольованою надрозумністю починає виглядати не як безпосередня загроза, а як відволікання від реальних ризиків: культурної гомогенізації, дезінформації та надмірної залежності інституцій від систем, які ніколи не зможуть працювати як люди.
Чи є ці обмеження ШІ позитивним явищем?
Саме ця структурна слабкість може бути тим, що запобігає катастрофі. Якщо системи штучного інтелекту погіршуються, коли вони ізольовані від людського втручання, то вони ніколи не зможуть стати самодостатніми формами інтелекту. Вони залишаються паразитами на людській творчості та судженнях, і ця залежність підриває популярні в науковій фантастиці образи машин, які самостійно вдосконалюються, виходячи за межі людського контролю.
У цьому сенсі ШІ може бути скоріше підсилювачем, ніж замінником. Він може бути потужним інструментом, але має фундаментальні обмеження. Можливо, він може прискорити вже існуючі в суспільстві тенденції, але сам по собі не може генерувати сенс, етику чи мету. Він не може бути нешкідливим, але починає здаватися обмеженим.
Реальний ризик, що стоїть за всім цим
Найсерйознішою небезпекою в цьому випадку буде не сам ШІ, а те, як на нього реагують інституції. Корпорації, медіаорганізації і навіть уряди все частіше ставляться до результатів роботи ШІ як до авторитетних, навіть якщо їхня точність є сумнівною. З часом це принижує людську експертизу, відповідальність та критичне мислення.
Якщо матеріали, створені ШІ, стануть стандартним орієнтиром, наприклад, у праві, журналістиці, освіті чи політиці, то помилки перестануть бути поодинокими випадками і стануть системними збоями. Це і є справжній ризик «коров'ячого сказу»: не те, що машини повстають, а те, що люди передають право судження назовні, доки цикл зворотного зв'язку не вибухне.
Гаузер просто запитує, чи не плутає суспільство автоматизацію з мудрістю, а швидкість – з прогресом.
Прикінцева думка
Якщо ШІ дійсно вступає у фазу «коров'ячого сказу», то фантазії та побоювання щодо тотального панування машин виглядають менш переконливими. Це може розчарувати футурологів та алармістів, але має заспокоїти всіх інших.
Майбутнє, безсумнівно, потребує людського судження, креативності та розуміння. Якщо взяти до уваги аргументи, подібні до тих, що висуває Гаузер, то небезпека полягає не в тому, що ШІ замінить усіх, і не виглядає, що ШІ коли-небудь зможе захопити світ. Але це не означає, що ми не здамося добровільно, надто покладаючись на автоматизовані моделі.
Наші інтереси:
Дуже важливе спостереження щодо ШІ. Тож не варто боятися того, чого насправді не може бути.
Філон Іудей був багатим аристократом і високофункціональним корпоративним психопатом. Свої тексти він генерував як несвідоме, інстинктивне мавпування, подібно до сучасних систем штучного інтелекту...
Штучний інтелект не захопить світ, адже деградуватиме разом із сучасними державами – Ден Гаузер
Категорія:
Світ:
Спецтема:
У міру того як штучний інтелект все швидше проникає в усі сфери сучасного життя, домінує думка про його неминучість. З появою більш інтелектуальних моделей і повної автоматизації багато хто відчуває, що їх кидає у майбутнє, яке перекроїли машини, що перевершують людей практично в усьому. Але все частіше фахівці в галузі технологій висловлюють альтернативні погляди – така траєкторія розвитку не є здоровою, стійкою або неминучою. Страх перед неконтрольованою надрозумністю починає виглядати не як безпосередня загроза, а як відволікання від реальних ризиків: культурної гомогенізації, дезінформації та надмірної залежності інституцій від систем, які ніколи не зможуть працювати як люди.
25123102.jpg
Зміст
Про це йдеться у статті "Штучний інтелект поглине сам себе. Це, як хвороба коров'ячого сказу, – фахівці в галузі технологій не стурбовані прискоренням" на The Exposé.
Ден Гаузер (Dan Houser), співзасновник Rockstar Games, нещодавно порівняв нинішній бум із хворобою коров'ячого сказу. Він сказав, що це система, яка живиться сама собою і зрештою стане фундаментально нестабільною. Це провокативна аналогія, яка відкриває глибше питання, що може принести деяким полегшення: а що, якщо недоліки, що з'являються в ШІ, не є помилками, які потрібно виправити, а є структурними обмеженнями, які завадять цій технології коли-небудь по-справжньому «захопити світ»?
Аналогія з коров'ячим сказом: чи пожирає штучний інтелект сам себе?
Порівняння Гаузера базується на конкретному історичному уроці. Коров'ячий сказ поширився, коли худобу годували переробленими рештками інших тварин, що створило замкнутий цикл деградованого біологічного матеріалу, який зрештою призвів до катастрофічного неврологічного збою. Його аргумент полягає в тому, що штучний інтелект, замість того щоб стати непереможним і захопити світ, насправді дрейфує в подібному напрямку. Моделі все частіше навчаються на синтетичних результатах, які раніше були згенеровані іншими системами ШІ, а не на знаннях, створених людьми.
По суті, у міру зростання автоматизованих моделей все більше того, що ми бачимо в Інтернеті, генерується тими самими системами. Таким чином, у міру подальшого навчання нових і наявних моделей, вони фактично лише перетравлюють власні результати.
Дослідники вже задокументували явище, відоме як колапс моделі, коли генеративні системи, які неодноразово навчаються на даних, створених ШІ, з часом стають менш точними, менш різноманітними та більш відірваними від реальності. Замість того щоб поєднувати свій інтелект, системи в кінцевому підсумку випорожнюються, підсилюючи свої початкові помилки та згладжуючи нюанси.
Зростаюча проблема, про яку не говорять лідери технологічної галузі
Маркетинг штучного інтелекту, орієнтований на широку аудиторію, зосереджується на масштабі: більше даних, більше інтеграції, більше параметрів. Однак про що не говорять – так це про зростаючий дефіцит високоякісних навчальних матеріалів, створених людьми. Більша частина відкритого інтернету вже була поглинена наявними моделями, а це означає, що те, що залишилося, все більше забруднюється спамом, автоматизованим шумом та іншими формами контенту штучного інтелекту.
Великі мовні моделі, які не мають доступу до постійно оновлюваного людського внеску, такого як мистецтво, міркування, письмо та справжній життєвий досвід, знаходяться під серйозною загрозою стагнації або регресу. Іронія очевидна: чим більше автоматизованого контенту заповнює Інтернет, тим менш надійним стає Інтернет як джерело навчання.
Критика Гаузера виходить за межі технічної архітектури. Він стверджує, що ті, хто найактивніше виступає за повне впровадження ШІ, часто ізольовані від інтелектуальних та культурних витрат, натомість надаючи пріоритет ефективності над належним розумінням. За його словами, ці керівники є «неповноцінними людьми», які звужують перспективу всередині кіл, що приймають рішення.
Що відеоігри вчать нас про ШІ
Компанія Rockstar Games, співзасновником якої є Гаузер, побудувала свою репутацію на створеній людьми різноманітності, що включає сатиру, культурну текстуру та загальну креативність. Саме ці якості генеративний ШІ не може переконливо відтворити.
Хоча моделі можуть генерувати діалоги, текстури та фрагменти коду, їм бракує внутрішнього розуміння значення, мотивації чи наслідків. Ці якості є необхідними для розповіді історій та побудови світу, і розробники ігор вже давно зіткнулися з обмеженнями штучного інтелекту на практиці. Вони підкреслюють ширшу проблему: штучний інтелект може імітувати форму, але не розуміє контексту. Він може передбачити, що повинно статися далі, але не чому це повинно статися.
Гаузер – лише один із прикладів зростаючої кількості занепокоєних керівників технологічних компаній, які висловлюють подібні думки. Вони часто попереджають, що системи ШІ є крихкими, надмірно розрекламованими та фундаментально не відповідають тому, як насправді працює інтелект.
Впевнені, але помилкові результати часто називають «галюцинаціями». Вони є ознакою того, що ці системи насправді нічого не знають у людському розумінні. Існує також занепокоєння щодо стрімкого зростання витрат на енергію, вузьких місць у передачі даних та зменшення прибутків у міру масштабування моделей. Ходять чутки, що масштабування методом грубої сили та спроби якомога швидшого розширення фактично наближаються до економічних та фізичних меж.
Можливо, заспокійливим є те, що страх перед неконтрольованою надрозумністю починає виглядати не як безпосередня загроза, а як відволікання від реальних ризиків: культурної гомогенізації, дезінформації та надмірної залежності інституцій від систем, які ніколи не зможуть працювати як люди.
Чи є ці обмеження ШІ позитивним явищем?
Саме ця структурна слабкість може бути тим, що запобігає катастрофі. Якщо системи штучного інтелекту погіршуються, коли вони ізольовані від людського втручання, то вони ніколи не зможуть стати самодостатніми формами інтелекту. Вони залишаються паразитами на людській творчості та судженнях, і ця залежність підриває популярні в науковій фантастиці образи машин, які самостійно вдосконалюються, виходячи за межі людського контролю.
У цьому сенсі ШІ може бути скоріше підсилювачем, ніж замінником. Він може бути потужним інструментом, але має фундаментальні обмеження. Можливо, він може прискорити вже існуючі в суспільстві тенденції, але сам по собі не може генерувати сенс, етику чи мету. Він не може бути нешкідливим, але починає здаватися обмеженим.
Реальний ризик, що стоїть за всім цим
Найсерйознішою небезпекою в цьому випадку буде не сам ШІ, а те, як на нього реагують інституції. Корпорації, медіаорганізації і навіть уряди все частіше ставляться до результатів роботи ШІ як до авторитетних, навіть якщо їхня точність є сумнівною. З часом це принижує людську експертизу, відповідальність та критичне мислення.
Якщо матеріали, створені ШІ, стануть стандартним орієнтиром, наприклад, у праві, журналістиці, освіті чи політиці, то помилки перестануть бути поодинокими випадками і стануть системними збоями. Це і є справжній ризик «коров'ячого сказу»: не те, що машини повстають, а те, що люди передають право судження назовні, доки цикл зворотного зв'язку не вибухне.
Гаузер просто запитує, чи не плутає суспільство автоматизацію з мудрістю, а швидкість – з прогресом.
Прикінцева думка
Якщо ШІ дійсно вступає у фазу «коров'ячого сказу», то фантазії та побоювання щодо тотального панування машин виглядають менш переконливими. Це може розчарувати футурологів та алармістів, але має заспокоїти всіх інших.
Майбутнє, безсумнівно, потребує людського судження, креативності та розуміння. Якщо взяти до уваги аргументи, подібні до тих, що висуває Гаузер, то небезпека полягає не в тому, що ШІ замінить усіх, і не виглядає, що ШІ коли-небудь зможе захопити світ. Але це не означає, що ми не здамося добровільно, надто покладаючись на автоматизовані моделі.
Дуже важливе спостереження щодо ШІ. Тож не варто боятися того, чого насправді не може бути.
Зверніть увагу
Філон Іудей з Александрії Єгипетської – фальсифікатор Євангелія, батько іудохристиянства (подкаст)