С момента, когда искусственный интеллект (ИИ) взял верх в нашей повседневной жизни, стали явственными и потенциальные риски, связанные с его использованием в различных сферах, включая возможность создания опасного оружия.
В связи с этим правительственные организации и лаборатории искусственного интеллекта решили отреагировать и предпринять какие-то меры по снижению рисков.
Белый дом во главе с Джоном Байденом принял решение создать новые методы, и одним из таких стал метод CUT. Его главная цель – вырезать из языковых моделей ИИ потенциально вредные "знания", оставляя при этом общие умения ИИ в других областях.
Ученые из Корнельского университета создали метод тестирования, который позволяет оценить ИИ-модели на наличие "знаний", способных причинить вред человечеству. Это стало актуальным, учитывая, что ИИ может использоваться как в положительных, так и в отрицательных целях.
Провал летнего наступления рф и страшная зима: эксперт рассказал, к чему готовиться
Мобилизация и объявление в розыск: на кого будут охотиться ТЦК в октябре 2025
Арктический холод и мощные снегопады: украинцев предупредили об экстремальной зиме
Наказания будут жесткими: украинцев обязали заказывать услуги для счетчиков на воду
Чтобы предотвратить возможное злоупотребление технологией, был также создан новый эталонный набор данных под названием Weapons of Mass Destruction Proxy (WMDP).
Президент США, Джо Байден, осознавая угрозы, связанные с недобросовестным использованием ИИ, подписал указ в октябре 2023 года, обязывающий научное сообщество глубже изучить этот вопрос.
Законодательно были установлены восемь основных принципов ответственного использования ИИ, охватывающих безопасность, конфиденциальность, справедливость и другие аспекты.
Однако существующие методы контроля за системами ИИ подвергаются критике, так как их легко обойти.
Также наш портал рассказывал, как прожить месяц и не умереть на минималке: что советует украинцам ИИ
Ранее Знай.ua стало известно о том, что твое желание услышали: ChatGPT научили читать вслух