«Коли чат перетворюється на заяву»: OpenAI сканує розмови ChatGPT і може звертатися в поліцію — що це означає для приватності українців
- Максим Бадзюнь
- 29 серп. 2025 р.
- Читати 3 хв

OpenAI офіційно пояснила, що виявлені чати з ознаками планування шкоди іншим проходять окремий маршрут модерації: їх переглядає невелика команда, яка може забанити акаунт і передати кейс до правоохоронних органів, якщо йдеться про «неминучу загрозу серйозної фізичної шкоди». Це зафіксовано у свіжому роз’ясненні компанії. OpenAI
Новину підхопили ЗМІ: у матеріалах Futurism рішення описують як більш відверте формулювання того, що OpenAI сканує розмови та здатна повідомляти поліцію — і це вже спричинило хвилю реакцій у користувачів.
На чому це ґрунтується юридично
У глобальній політиці приватності OpenAI прямо вказує, що може ділитися персональними даними з державними органами та іншими третіми сторонами: для виконання закону, запобігання шахрайству, захисту безпеки користувачів і публіки, а також у разі порушення умов користування.
Окремо OpenAI наголошує на правилах використання (usage policies): заборона незаконної діяльності, компрометації приватності інших, тощо. Такі політики дають підстави для модерації контенту й передачі даних у разі загроз.
Що саме «сканується» і коли втручаються люди
За заявою компанії, автоматичні сигнали ризику (теми насильства, планування шкоди іншим тощо) спрямовують бесіди в окремий пайплайн; далі людські рецензенти оцінюють контекст і приймають рішення — від попередження й блокування до повідомлення поліції у випадку реальної та неминучої загрози.
Чому це викликає суперечки
Критики зауважують, що чат-боти часто збирають дуже чутливі зізнання (терапія, юридичні питання), при цьому не мають конфіденційності рівня «лікар-пацієнт/адвокат-клієнт». Такі сервіси можуть стати елементом «наглядової» інфраструктури, якщо немає шифрування та чітких меж доступу.
Як це співвідноситься з правами користувача в Україні та ЄС
GDPR/українське право про захист персональних даних (за духом дуже близькі): допускають обробку і передачу даних за законною підставою (legal obligation, vital interests, legitimate interests). Передача «для захисту життя/безпеки» — типова правова підстава, але вимагає пропорційності та мінімізації даних.
Користувачі мають права доступу/видалення/обмеження обробки; однак у випадку розслідувань чи судових зобов’язань ці права можуть тимчасово обмежуватися.(Цей блок — загальна інформація, не є юридичною консультацією.)
Що реально змінюється для звичайного користувача
Відверті загрози іншим людям у чаті тепер з високою імовірністю потраплять до людської модерації і можуть бути передані правоохоронцям. Це — офіційно задекларована процедура.
Політика OpenAI давно містила можливість ділитися даними з державними органами за законом; тепер компанія чіткіше описала операційний механізм такого маршруту.
Чеклист приватності від Академії ШІ (що робити вже сьогодні)
Не діліться у чаті реальними планами, що можуть бути трактовані як загроза чи незаконна дія — навіть «жартома».
Увімкніть режими підвищеної приватності: тимчасові чати / вимкнення історії (і, за наявності в тарифі, Zero Data Retention). Перевірте корпоративні налаштування, якщо користуєтеся в роботі.
Мінімізуйте персональні дані: імена, адреси, номери, медичні/юридичні подробиці.
Локальні або он-прем рішення: для особливо чутливих кейсів розгляньте локальні моделі чи контрактні умови з постачальником на рівні DPA/SCC.
Стежте за оновленнями політик OpenAI (ретенція, шифрування, винятки для правоохоронців).
Коротка «карта даних» OpenAI (станом на сьогодні)
Таблиця — короткі пункти, без довгих речень.
Що | Як/навіщо | Передача владі |
Метадані та взаємодія | безпека, запобігання зловживанням | можлива за законом/загрозою |
Контент чату | модерація, покращення сервісу (залежить від налаштувань) | при «неминучій загрозі» |
Тимчасові чати | коротке зберігання, окремі пайплайни | за загрозою/законом |
Enterprise | обмежений доступ, ZDR-опції | за правовим запитом |
Джерела: політика приватності, usage-policies, роз’яснення OpenAI. OpenAI+3OpenAI+3OpenAI+3
Висновок Академії
Відтепер прозоро зафіксовано: якщо ChatGPT фіксує реальну загрозу іншим, розмова може опинитися у правоохоронців. Це підвищує суспільну безпеку, але водночас підіймає планку до приватності: потрібні чіткі межі, шифрування, зрозуміла ретенція та незалежний аудит модерації. Користувачам — цифрова гігієна і продумані налаштування; бізнесу — комплаєнс і контрактні гарантії; державі — правила пропорційності і прозорість доступу до даних.



Коментарі