Поки мільйони людей довіряють ChatGPT свої думки, почуття і навіть таємниці, глава OpenAI Сем Альтман визнає: жодної юридичної конфіденційності ці розмови не мають.

І якщо знадобиться, ваші слова можна буде використовувати в суді.

суд

Ви коли-небудь писали ChatGPT щось особисте? Визнавалися в почуттях, описували складну сімейну ситуацію, просили поради — майже як у психолога? Тоді ось вам новина із розряду "краще б я цього не знав".

Генеральний директор OpenAI Сем Альтман заявив у свіжому інтерв'ю, що розмови користувачів з ChatGPT не підпадають під дію професійної таємниці, як це відбувається у юристів, лікарів чи психотерапевтів. Тобто те, що ви пишете боту, — це не «між нами», а цілком доступна інформація, яку на вимогу можуть запитати... у суді.

Популярні новини зараз

Гороскоп на тиждень 4-10 серпня для всіх знаків Зодіаку: терпіння Львів, напруга Скорпіонів та перемога Риб

У пенсіонерів заберуть 20% пенсії: ПФУ попередив про утримання із виплат

В Україні зросте вартість електроенергії: чого чекати громадянам

Українці отримують нові суми у платіжках: нарахують навіть тим хто не користується

Показати ще

"Це дуже паршиво, якщо чесно. Але поки що ми не придумали, як це юридично вирішувати", - зізнався Альтман в інтерв'ю подкасту This Past Weekend.

Штучний інтелект – не ваш адвокат і не сповідник

Якщо коротко: все, що ви надсилаєте в чат, може бути збережено. Навіть якщо видається, що історія видалена, ці дані можуть залишитися на серверах. Особливо в тих випадках, коли починається розгляд: наприклад, OpenAI зараз бере участь у суді проти The New York Times і суд вимагає зберегти чати мільйонів користувачів.

Сесія з ChatGPT – це не приватна кімната, а скоріше скляний бокс у центрі площі. І якщо ви думаєте, що зможете потім сказати «я нічого такого не писав», суддя може підняти листування і пред'явити буквально ваші слова.

ChatGPT, скріншот: YouTube

Але це просто бот, а не людина?

Ось у цьому й фішка. ChatGPT вміє співчувати, розуміти, жартувати, підтримувати — і ви в якийсь момент забуваєте, що на той бік холодний алгоритм, а не тепла людина. Сприймаєте його як співрозмовника, якому можна довіритись. А він не зобов'язаний вас захищати.

Альтман визнає, що ця ситуація є ненормальною. Він каже, що в майбутньому непогано було б створити юридичний статус для спілкування з ШІ, особливо у випадках, коли люди використовують його як терапевта. Але поки що такого закону немає — немає й захисту.

Чому це важливо прямо зараз?

Тому що все частіше люди використовують штучний інтелект не просто для генерації текстів, а як довірена особа. Розповідають про розлучення, справи з дітьми, плани на бізнес, проблеми із законом. І якщо завтра ваш опонент у суді дізнається, що ви щось обговорювали з ботом, може запитати ці дані як доказ.

Це не параноя. Це нова дійсність.

Робоче місце, стіл, комп'ютер, фото із соцмереж

І що ж тепер?

Тепер – фільтрувати. Не довіряти ШІ того, що ви не розповіли під протокол. Чи не просити його аналізувати ситуацію, якщо на кону стоїть щось серйозне: гроші, сім'я, свобода. І пам'ятати: все, що потрапляє в інтернет, може стати надбанням суду, навіть якщо це був просто чат з розумним асистентом.

Нагадаємо, що штучний інтелект чи штучне божевілля: як ChatGPT довів чоловіка до психіатричної лікарні... тричі.

Раніше ми повідомляли, що Microsoft представили медичний ШІ - більш точний і дешевше за лікарів.