С момента, когда искусственный интеллект (ИИ) взял верх в нашей повседневной жизни, стали явственными и потенциальные риски, связанные с его использованием в различных сферах, включая возможность создания опасного оружия.
В связи с этим правительственные организации и лаборатории искусственного интеллекта решили отреагировать и предпринять какие-то меры по снижению рисков.
Белый дом во главе с Джоном Байденом принял решение создать новые методы, и одним из таких стал метод CUT. Его главная цель – вырезать из языковых моделей ИИ потенциально вредные "знания", оставляя при этом общие умения ИИ в других областях.
Ученые из Корнельского университета создали метод тестирования, который позволяет оценить ИИ-модели на наличие "знаний", способных причинить вред человечеству. Это стало актуальным, учитывая, что ИИ может использоваться как в положительных, так и в отрицательных целях.
В Украине усилят мобилизацию и укрепят города: к чему следует готовиться
Гороскоп на 26 ноября: во вторник Вселенная на вашей стороне
Полностью заменит ТЦК: какие изменения ожидают мобилизацию
Пенсионеров заставят вернуть часть выплат государству
Чтобы предотвратить возможное злоупотребление технологией, был также создан новый эталонный набор данных под названием Weapons of Mass Destruction Proxy (WMDP).
Президент США, Джо Байден, осознавая угрозы, связанные с недобросовестным использованием ИИ, подписал указ в октябре 2023 года, обязывающий научное сообщество глубже изучить этот вопрос.
Законодательно были установлены восемь основных принципов ответственного использования ИИ, охватывающих безопасность, конфиденциальность, справедливость и другие аспекты.
Однако существующие методы контроля за системами ИИ подвергаются критике, так как их легко обойти.
Также наш портал рассказывал, как прожить месяц и не умереть на минималке: что советует украинцам ИИ
Ранее Знай.ua стало известно о том, что твое желание услышали: ChatGPT научили читать вслух