Герд Ґіґеренцер (Gerd Gigerenzer) – директор Центру Гардінґа з вивчення ризиків при Потсдамському університеті в Німеччині. Раніше він був директором Центру адаптивної поведінки та пізнання в Інституті розвитку людини імені Макса Планка, і протягом десятиліть проводив дослідження, які допомогли сформувати розуміння того, як люди роблять вибір, коли стикаються з невизначеністю.
Wall Street Journal у статті згадує його нову книгу "Як залишатися розумним у розумному світі", у якій доктор Гіґеренцер розглядає, як алгоритми формують наше майбутнє, і чому важливо пам'ятати, що вони – не люди.
На думку вченого, сучасні складні алгоритми, такі як глибокі нейронні мережі, в умовах визначеності – стабільної ситуації – можуть краще мислити, аніж люди. Як приклад, він наводить ігри – шахи та го, які є стабільними передбачуваними системами.
Але якщо у вас невизначена проблема, наприклад, потрібно передбачити вірус, такий як COVID-19, то вам слід відмовитися від використання складних алгоритмів.
Робота з невизначеністю – так працює людський розум, вважає вчений, тобто – виділяє одну чи дві важливі підказки та ігнорує решту. У цьому типі нечітко визначеної проблеми складні алгоритми не працюють. Доктор Ґіґеренцер називає це "принципом стабільного світу", і розкриває в інтерв'ю WSJ те, на що здатен штучний інтелект. На його думку, щоб отримати максимальну віддачу від ШІ, потрібно зробити світ передбачуваним.
Він відповів ствердно на запитання видання про те, що попри десятиліття розвитку комп’ютерних наук, алгоритми досі залишаються фактично "просто калькуляторами", які обчислюють складні рівняння. За його словами, глибока нейронна мережа має багато нашарувань, але вони – просто обчислювальні машини. За допомогою відеотехнологій, зазначає науковець, алгоритми можуть робити набагато більше, ніж будь-коли раніше: малювати чи конструювати текст, але це не означає, що вони розуміють текст у тому сенсі, в якому його розуміє людина.
На думку Ґерда Ґіґеренцера, це – безумовне право людини розуміти та знати технологію. Вона має бути прозора, щоб людина могла її змінити й знову почати думати самостійно, а не покладатися на алгоритм, котрий, як вважає науковець, не кращий за групу низькооплачуваних робітників.
За словами вченого, важливо виокремлювати ситуації, коли людське судження потрібне і краще. При цьому він зауважує, що йдеться не про ту ситуацію, коли технологічні компанії продають алгоритми – "чорні скриньки". Бо це вже, на думку науковця, про політичну і соціальну поведінки, де люди не впливають на уряди і управляються технологічними компаніями.
Доктор Ґіґеренцер, вважає, що цифрові технології можуть легко схилити шальки терезів у бік автократичних систем, і ця небезпека цілком реальна. Бо серед переваг, які вони мають, є і величезна вада – схильність з боку урядів і технологічних компаній до стеження. Оскільки люди більше не читають політику конфіденційності, тому не знають про це. А ще політики конфіденційності створені таким чином, що їх дуже важко зрозуміти – вони занадто довгі та складні. На думку вченого, людям потрібно повернути контроль над цим.
Науковець порівняв роботу сучасних соцмереж з безплатною кав'ярнею. Коли всі ходять до неї, бо там безплатна кава, це приводить до банкрутства всіх інших аналогічних закладів. Перебуваючи в цій кав’ярні, ви отримуєте свою безплатну каву, але при цьому мікрофони й відеокамери записують все, що ви говорите і робите, і вся ця інформація відправляється на аналіз. Як наслідок, ви в цій кав’ярні, як і в соцмережі, стаєте не клієнтом, а продуктом.
Приблизно в такій ситуації ви перебуваєте у фейсбуці, інстаграмі чи на інших платформах. Тому, вважає Герд Ґіґеренцер, ми хочемо мати кав'ярню, де змогли б платити самі та були клієнтами, а не продуктами.
Проте, на його думку, вся ця інфраструктура навколо персоналізованої реклами вже вбудувалася в інфраструктуру інтернету. І знадобляться досить серйозні втручання, щоб її позбутися.
Доктор Ґіґеренцер сподівається, що люди усвідомлять, що не варто віддавати свої дані та відповідальність за власні рішення технологічним компаніям, які використовують їх, щоб заробляти гроші на рекламодавцях. Це не може бути нашим майбутнім, вважає він. Існує реальна небезпека, що все більше і більше людей піддаються стеженню і погоджують на все, що їм зручніше.
На запитання WSJ, як протистояти цьому, адже, як він зазначив, читати політику конфіденційності та прослідковувати алгоритми, які впливають на життя, доволі складно, вчений не без іронії відповів, що найзручніше, звісно, – не думати над цим. Але альтернатива є. І це – почати думати.
"Найважливіша технологія, про яку варто знати, – це механізм, який психологи називають "непослідовним заохоченням". Ви отримуєте заохочення, наприклад, лайк, але ви ніколи не знаєте, коли саме його отримаєте. Люди постійно повертаються на платформу і перевіряють свої лайки", – зазначив доктор Ґіґеренцер. Це, на його думку, реально змінило менталітет і зробило людей залежними. Тому надважливо, щоб кожен розумів ці механізми й те, яким чином і яким шляхом людина стає залежною. А коли буде воля і бажання, переконаний науковець, цілком можливо повернути контроль.
Стежимо за наслідками використання нейронних мереж. Беремо краще, уникаємо впливу гіршого.
Коментарі
Лайк :)