Поки мільйони людей довіряють ChatGPT свої думки, почуття і навіть таємниці, глава OpenAI Сем Альтман визнає: жодної юридичної конфіденційності ці розмови не мають.

І якщо знадобиться, ваші слова можна буде використовувати в суді.

суд

Ви коли-небудь писали ChatGPT щось особисте? Визнавалися в почуттях, описували складну сімейну ситуацію, просили поради — майже як у психолога? Тоді ось вам новина із розряду "краще б я цього не знав".

Генеральний директор OpenAI Сем Альтман заявив у свіжому інтерв'ю, що розмови користувачів з ChatGPT не підпадають під дію професійної таємниці, як це відбувається у юристів, лікарів чи психотерапевтів. Тобто те, що ви пишете боту, — це не «між нами», а цілком доступна інформація, яку на вимогу можуть запитати... у суді.

Популярні новини зараз

У травні українці отримають третю платіжку за газ

1297 гривень доплати до пенсії: хто має на це право та як оформити

Жителі трьох областей отримають додаткову допомогу

Пенсіонерам та малозабезпеченим перерахують виплати

Показати ще

"Це дуже паршиво, якщо чесно. Але поки що ми не придумали, як це юридично вирішувати", - зізнався Альтман в інтерв'ю подкасту This Past Weekend.

Штучний інтелект – не ваш адвокат і не сповідник

Якщо коротко: все, що ви надсилаєте в чат, може бути збережено. Навіть якщо видається, що історія видалена, ці дані можуть залишитися на серверах. Особливо в тих випадках, коли починається розгляд: наприклад, OpenAI зараз бере участь у суді проти The New York Times і суд вимагає зберегти чати мільйонів користувачів.

Сесія з ChatGPT – це не приватна кімната, а скоріше скляний бокс у центрі площі. І якщо ви думаєте, що зможете потім сказати «я нічого такого не писав», суддя може підняти листування і пред'явити буквально ваші слова.

ChatGPT, скріншот: YouTube

Але це просто бот, а не людина?

Ось у цьому й фішка. ChatGPT вміє співчувати, розуміти, жартувати, підтримувати — і ви в якийсь момент забуваєте, що на той бік холодний алгоритм, а не тепла людина. Сприймаєте його як співрозмовника, якому можна довіритись. А він не зобов'язаний вас захищати.

Альтман визнає, що ця ситуація є ненормальною. Він каже, що в майбутньому непогано було б створити юридичний статус для спілкування з ШІ, особливо у випадках, коли люди використовують його як терапевта. Але поки що такого закону немає — немає й захисту.

Чому це важливо прямо зараз?

Тому що все частіше люди використовують штучний інтелект не просто для генерації текстів, а як довірена особа. Розповідають про розлучення, справи з дітьми, плани на бізнес, проблеми із законом. І якщо завтра ваш опонент у суді дізнається, що ви щось обговорювали з ботом, може запитати ці дані як доказ.

Це не параноя. Це нова дійсність.

Робоче місце, стіл, комп'ютер, фото із соцмереж

І що ж тепер?

Тепер – фільтрувати. Не довіряти ШІ того, що ви не розповіли під протокол. Чи не просити його аналізувати ситуацію, якщо на кону стоїть щось серйозне: гроші, сім'я, свобода. І пам'ятати: все, що потрапляє в інтернет, може стати надбанням суду, навіть якщо це був просто чат з розумним асистентом.

Нагадаємо, що штучний інтелект чи штучне божевілля: як ChatGPT довів чоловіка до психіатричної лікарні... тричі.

Раніше ми повідомляли, що Microsoft представили медичний ШІ - більш точний і дешевше за лікарів.