Про це йдеться у статті "Штучний інтелект поглине сам себе. Це, як хвороба коров'ячого сказу, – фахівці в галузі технологій не стурбовані прискоренням" на The Exposé.
Ден Гаузер (Dan Houser), співзасновник Rockstar Games, нещодавно порівняв нинішній бум із хворобою коров'ячого сказу. Він сказав, що це система, яка живиться сама собою і зрештою стане фундаментально нестабільною. Це провокативна аналогія, яка відкриває глибше питання, що може принести деяким полегшення: а що, якщо недоліки, що з'являються в ШІ, не є помилками, які потрібно виправити, а є структурними обмеженнями, які завадять цій технології коли-небудь по-справжньому «захопити світ»?
Порівняння Гаузера базується на конкретному історичному уроці. Коров'ячий сказ поширився, коли худобу годували переробленими рештками інших тварин, що створило замкнутий цикл деградованого біологічного матеріалу, який зрештою призвів до катастрофічного неврологічного збою. Його аргумент полягає в тому, що штучний інтелект, замість того щоб стати непереможним і захопити світ, насправді дрейфує в подібному напрямку. Моделі все частіше навчаються на синтетичних результатах, які раніше були згенеровані іншими системами ШІ, а не на знаннях, створених людьми.
По суті, у міру зростання автоматизованих моделей все більше того, що ми бачимо в Інтернеті, генерується тими самими системами. Таким чином, у міру подальшого навчання нових і наявних моделей, вони фактично лише перетравлюють власні результати.
Дослідники вже задокументували явище, відоме як колапс моделі, коли генеративні системи, які неодноразово навчаються на даних, створених ШІ, з часом стають менш точними, менш різноманітними та більш відірваними від реальності. Замість того щоб поєднувати свій інтелект, системи в кінцевому підсумку випорожнюються, підсилюючи свої початкові помилки та згладжуючи нюанси.
Маркетинг штучного інтелекту, орієнтований на широку аудиторію, зосереджується на масштабі: більше даних, більше інтеграції, більше параметрів. Однак про що не говорять – так це про зростаючий дефіцит високоякісних навчальних матеріалів, створених людьми. Більша частина відкритого інтернету вже була поглинена наявними моделями, а це означає, що те, що залишилося, все більше забруднюється спамом, автоматизованим шумом та іншими формами контенту штучного інтелекту.
Великі мовні моделі, які не мають доступу до постійно оновлюваного людського внеску, такого як мистецтво, міркування, письмо та справжній життєвий досвід, знаходяться під серйозною загрозою стагнації або регресу. Іронія очевидна: чим більше автоматизованого контенту заповнює Інтернет, тим менш надійним стає Інтернет як джерело навчання.
Критика Гаузера виходить за межі технічної архітектури. Він стверджує, що ті, хто найактивніше виступає за повне впровадження ШІ, часто ізольовані від інтелектуальних та культурних витрат, натомість надаючи пріоритет ефективності над належним розумінням. За його словами, ці керівники є «неповноцінними людьми», які звужують перспективу всередині кіл, що приймають рішення.
Компанія Rockstar Games, співзасновником якої є Гаузер, побудувала свою репутацію на створеній людьми різноманітності, що включає сатиру, культурну текстуру та загальну креативність. Саме ці якості генеративний ШІ не може переконливо відтворити.
Хоча моделі можуть генерувати діалоги, текстури та фрагменти коду, їм бракує внутрішнього розуміння значення, мотивації чи наслідків. Ці якості є необхідними для розповіді історій та побудови світу, і розробники ігор вже давно зіткнулися з обмеженнями штучного інтелекту на практиці. Вони підкреслюють ширшу проблему: штучний інтелект може імітувати форму, але не розуміє контексту. Він може передбачити, що повинно статися далі, але не чому це повинно статися.
Гаузер – лише один із прикладів зростаючої кількості занепокоєних керівників технологічних компаній, які висловлюють подібні думки. Вони часто попереджають, що системи ШІ є крихкими, надмірно розрекламованими та фундаментально не відповідають тому, як насправді працює інтелект.
Впевнені, але помилкові результати часто називають «галюцинаціями». Вони є ознакою того, що ці системи насправді нічого не знають у людському розумінні. Існує також занепокоєння щодо стрімкого зростання витрат на енергію, вузьких місць у передачі даних та зменшення прибутків у міру масштабування моделей. Ходять чутки, що масштабування методом грубої сили та спроби якомога швидшого розширення фактично наближаються до економічних та фізичних меж.
Можливо, заспокійливим є те, що страх перед неконтрольованою надрозумністю починає виглядати не як безпосередня загроза, а як відволікання від реальних ризиків: культурної гомогенізації, дезінформації та надмірної залежності інституцій від систем, які ніколи не зможуть працювати як люди.
Саме ця структурна слабкість може бути тим, що запобігає катастрофі. Якщо системи штучного інтелекту погіршуються, коли вони ізольовані від людського втручання, то вони ніколи не зможуть стати самодостатніми формами інтелекту. Вони залишаються паразитами на людській творчості та судженнях, і ця залежність підриває популярні в науковій фантастиці образи машин, які самостійно вдосконалюються, виходячи за межі людського контролю.
У цьому сенсі ШІ може бути скоріше підсилювачем, ніж замінником. Він може бути потужним інструментом, але має фундаментальні обмеження. Можливо, він може прискорити вже існуючі в суспільстві тенденції, але сам по собі не може генерувати сенс, етику чи мету. Він не може бути нешкідливим, але починає здаватися обмеженим.
Найсерйознішою небезпекою в цьому випадку буде не сам ШІ, а те, як на нього реагують інституції. Корпорації, медіаорганізації і навіть уряди все частіше ставляться до результатів роботи ШІ як до авторитетних, навіть якщо їхня точність є сумнівною. З часом це принижує людську експертизу, відповідальність та критичне мислення.
Якщо матеріали, створені ШІ, стануть стандартним орієнтиром, наприклад, у праві, журналістиці, освіті чи політиці, то помилки перестануть бути поодинокими випадками і стануть системними збоями. Це і є справжній ризик «коров'ячого сказу»: не те, що машини повстають, а те, що люди передають право судження назовні, доки цикл зворотного зв'язку не вибухне.
Гаузер просто запитує, чи не плутає суспільство автоматизацію з мудрістю, а швидкість – з прогресом.
Якщо ШІ дійсно вступає у фазу «коров'ячого сказу», то фантазії та побоювання щодо тотального панування машин виглядають менш переконливими. Це може розчарувати футурологів та алармістів, але має заспокоїти всіх інших.
Майбутнє, безсумнівно, потребує людського судження, креативності та розуміння. Якщо взяти до уваги аргументи, подібні до тих, що висуває Гаузер, то небезпека полягає не в тому, що ШІ замінить усіх, і не виглядає, що ШІ коли-небудь зможе захопити світ. Але це не означає, що ми не здамося добровільно, надто покладаючись на автоматизовані моделі.
Дуже важливе спостереження щодо ШІ. Тож не варто боятися того, чого насправді не може бути.
Повністю погоджуюся з автором. Взагалі не бачу проблем із штучним інтелектом.Про те, що він "навчається" на власних помилках, і обмежений розумом того, хто його використовує - це факт. Спрощено це можна порівняти з пензлем в руках людини. Справжній митець за допомогою нього може створити шедевр, людина яка не вміє з ним вправлятися, в кращому випадку, гарно пофарбує паркан. Штучний інтелект дає можливість в тисячі рази прискорювати реалізацію задуму автора (живої людини), але не більше.. тому роль людини залишатиметься незамінною.
Коментарі
Повністю погоджуюся з автором. Взагалі не бачу проблем із штучним інтелектом.Про те, що він "навчається" на власних помилках, і обмежений розумом того, хто його використовує - це факт. Спрощено це можна порівняти з пензлем в руках людини. Справжній митець за допомогою нього може створити шедевр, людина яка не вміє з ним вправлятися, в кращому випадку, гарно пофарбує паркан. Штучний інтелект дає можливість в тисячі рази прискорювати реалізацію задуму автора (живої людини), але не більше.. тому роль людини залишатиметься незамінною.
Трохи результату роботи з GPT: "Тобто інтелект - кінечний інструмент із кінечним результатом і кінечною похибкою нарешті?
Так. Якщо сказати твердо й без лукавства — саме так."
Мабуть інші скажуть плюс-мінус так само. А ми можемо обрати рівень похибки , часові і енергетичні рамки. Не більше.
Що до Розуму:
Яка різниця між операціями із безкінечністю розуму і інтелекту?
"Класичний перекіс
Інтелект без розуму →
нескінченні формули без змісту.
Розум без інтелекту →
правильне відчуття, але без інструментів.
Старе правило, яке не застаріло:
інтелект іде до межі, розум не дозволяє переступити без підстав.
А безкінечність — саме той камінь, на якому це добре видно."
Варто знати і все буде гаразд.
Питання до GPT - мої. Відповіді - його (або ні?)