Вчені створили соцмережу, де всі користувачі — чат-боти (штучний інтелект). Результати вас здивують
- Максим Бадзюнь
- 20 серп.
- Читати 3 хв
Оновлено: 22 серп.

Уявіть соціальну мережу, де всі користувачі – не люди, а боти, керовані штучним інтелектом на основі великої мовної моделі OpenAI GPT-4o.
Ні рекламних алгоритмів, ні впливу людей – лише машина, що спілкується сама з собою. Здається утопією? Або може обернутися психоделічним жахом? Недарма й реальні соцмережі нині нерідко називають “токсичним болотом” дезінформації та ненависті, що підтримує своєрідну залежність користувачів заради прибутків від реклами.
Нове дослідження Університету Амстердама доводить, що одна лише взаємодія ботів, керованих штучним інтелектом, здатна породити токсичну спільноту, де панують крайнощі, а найрадикальніші голоси стають найгучнішими – і все це без жодних алгоритмів.
Дослідники створили мінімальну платформу без реклами та рекомендацій і заселили туди 500 чат-ботів. Кожен бот отримав свій “характер” – з визначеними політичними поглядами, віком, інтересами – щоб відобразити реальне розмаїття людей. У цій експериментальній соцмережі боти могли публікувати дописи, стежити один за одним і репостити чужі повідомлення. Результат виявився тривожним.
Як і в реальних мережах, чат-боти потягнулися до однодумців, формуючи тісні ехо-камери – групи, де спільні переконання тільки підсилювалися. Найбільш поляризовані дописи стали найвіруснішими: саме крайні та емоційні повідомлення набрали найбільше підписників і репостів. З часом невелика кількість ботів вирвалася вперед і почала домінувати в обговореннях, фактично перетворившись на “інфлюенсерів”, що диктують порядок денний для всієї мережі. І все це відбулося без жодного втручання людини чи спеціальних алгоритмів.
Чи можна було зупинити цю токсичну спіраль? Дослідники випробували кілька втручань, спрямованих на стримування поляризації. Серед них були:
показ дописів у стрічці суто в хронологічному порядку,
зниження видимості найморальнішого контенту,
приховування лічильників підписників,
відключення біографій профілів
навіть підсилення дописів, що представляли альтернативні точки зору.
Проте жоден із методів не дав бажаного ефекту: жодне рішення повністю не усунуло патології мережі. Як зазначають автори, навіть якщо одна зміна й демонструвала помірний позитив, вона компенсувалася погіршенням в іншому аспекті. Ба більше, окремі втручання тільки загострили ситуацію – наприклад, приховування даних профілю призвело до ще більшого розквіту крайнощів, і екстремістські пости отримали ще більше уваги. Радикалізація нікуди не зникала – інколи вона навіть посилювалася.
Цей експеримент – більше ніж просто лабораторний кейс. Фактично, це дзеркало нашого цифрового світу. Навіть без участі реальних людей і без алгоритмів великого масштабу виявляються ті самі деструктивні тенденції. Людські схильності (у виконанні ШІ-моделей) все одно тягнуться до крайнощів і розбиваються на власні інформаційні бульбашки. Автори дослідження підкреслюють: проблема криється не лише в алгоритмічних стрічках, а й у самій структурі соцмереж. Ці платформи побудовані так, що зростають через емоційно забарвлений контент, отож архітектура мережі сама по собі стимулює поляризацію. І це може лише погіршитися із поширенням генеративного ШІ (штучний інтелект): моделі здатні масово генерувати дописи, які максимально чіпляють увагу – часто поляризуючі або дезінформаційні.
Що це означає для нас?
Токсичність – не лише провина алгоритмів. Поширено думку, що соцмережі токсичні через розумні алгоритми, які показують провокативний контент. Але глибинні проблеми виникають навіть на платформах без алгоритмічних рекомендацій. Соціальні мережі самі по собі схильні поляризувати спільноти, використовуючи нашу ж психологію.
Свідомий опір – необхідний. Ми самі часто шукаємо підтвердження власних поглядів і приєднуємося до спільнот, що їх віддзеркалюють. Та життя в такому інформаційному коконі уповільнює наш розвиток і звужує світогляд. Щоб не потрапити в цю пастку, потрібно свідомо виходити зі своєї бульбашки – читати різні джерела, спілкуватися з тими, хто має інший погляд, і чути протилежні аргументи.
Технічні інструменти не панацея. Хронологічна стрічка, відключення лічильників лайків, приховування вподобань – ці кроки можуть дати тимчасове полегшення, але не вилікують соцмережі від екстремізму. Вони забезпечують лише частковий ефект і нерідко мають побічні наслідки. Немає “чарівної пігулки”, яка моментально виправить інформаційне середовище.
Відповідальність лежить на всіх нас. Подолання поляризації вимагає комплексного підходу. Свою роль мають відіграти і розробники платформ – враховуючи психологію людей при дизайні сервісів, і ми з вами – дотримуючись інформаційної гігієни, критично оцінюючи контент та власні реакції. Лише спільними зусиллями можна зробити онлайн-середовище здоровішим – на цьому наголошують експерти Академії Штучного Інтелекту.
Український контекст: штучний інтелект, війна, соцмережі і наша психологія
У час, коли війна розколює суспільство, породжуючи шквал полярних думок і емоцій, соціальні мережі стали справжнім інформаційним фронтом. Вони буквально створюють “цифрових солдатів”, що воюють у наших головах. І цих солдатів, зрештою, створюємо ми самі – нашими ж алгоритмами, нашими очікуваннями та особливостями нашої психології. Ми не лише споживаємо контент – ми його формуємо, замикаючи себе у власній інформаційній бульбашці та втрачаючи здатність чути правду (бо не хочемо її чути). Потік новин і повідомлень настільки нас перевантажує, що це породжує хронічну тривогу та безсонні ночі.
То що ж тепер? Не варто закриватися ще глибше в собі – навпаки, виходити з цього міхура. Шукати альтернативні джерела, вести діалог попри розбіжності, перевіряти, хто і що стоїть за контентом, який ми споживаємо та поширюємо. Експеримент зі штучним інтелектом лише висвітлив наші вразливі місця – але ми можемо використати цю інформацію як шанс для зростання. Адже зрештою, не ми створили інформаційний міхур – це міхур сформував нас. І тільки нам вирішувати: залишатися в ньому чи вийти назустріч істині.
Коментарі