З моменту, коли штучний інтелект (ІІ) переміг у нашому повсякденному житті, стали виразними і потенційні ризики, пов'язані з його використанням у різних сферах, включаючи можливість створення небезпечної зброї.

У зв'язку з цим урядові організації та лабораторії штучного інтелекту вирішили відреагувати та вжити якихось заходів щодо зниження ризиків.

Чоловік із пістолетом / фото: Freepik

Білий дім на чолі з Джоном Байденом вирішив створити нові методи, і одним із таких став метод CUT. Його головна мета – вирізати з мовних моделей ІІ потенційно шкідливі знання, залишаючи при цьому загальні вміння ІІ в інших областях.

Вчені з Корнельського університету створили метод тестування, що дозволяє оцінити ІІ-моделі на наявність "знань", здатних завдати шкоди людству. Це стало актуальним з огляду на те, що ІІ може використовуватися як у позитивних, так і в негативних цілях.

Популярні новини зараз

Мобілізація жінок у травні: кому доведеться йти до ТЦК

Фанати засудили Могилевську за заохочення доньки: "Не зробили висновків..."

Чому в СРСР будували 5- та 9-поверхівки - ви навіть не здогадуєтеся, у чому "секрет"

Тіна Кароль пішла у відрив без одягу та зі склянкою: "Я зцілюю себе"

Показати ще

Штучний інтелект / фото: Freepik

Щоб запобігти можливому зловживанням технологією, був також створений новий еталонний набір даних під назвою Weapons of Mass Destruction Proxy (WMDP).

Президент США Джо Байден, усвідомлюючи загрози, пов'язані з несумлінним використанням ІІ, підписав указ у жовтні 2023 року, який зобов'язує наукову спільноту глибше вивчити це питання.

Законодавчо було встановлено вісім основних принципів відповідального використання ІІ, що охоплюють безпеку, конфіденційність, справедливість та інші аспекти.

Проте існуючі методи контролю над системами ІІ піддаються критиці, оскільки їх легко оминути.

Також наш портал розповідав, як прожити місяць та не померти на мінімалці: що радить українцям ІІ

Раніше Знай.ua стало відомо про те, що твоє бажання почули: ChatGPT навчили читати вголос