С момента, когда искусственный интеллект (ИИ) взял верх в нашей повседневной жизни, стали явственными и потенциальные риски, связанные с его использованием в различных сферах, включая возможность создания опасного оружия.
В связи с этим правительственные организации и лаборатории искусственного интеллекта решили отреагировать и предпринять какие-то меры по снижению рисков.
Белый дом во главе с Джоном Байденом принял решение создать новые методы, и одним из таких стал метод CUT. Его главная цель – вырезать из языковых моделей ИИ потенциально вредные "знания", оставляя при этом общие умения ИИ в других областях.
Ученые из Корнельского университета создали метод тестирования, который позволяет оценить ИИ-модели на наличие "знаний", способных причинить вред человечеству. Это стало актуальным, учитывая, что ИИ может использоваться как в положительных, так и в отрицательных целях.
Гороскоп на сегодня, 19 апреля: суббота непредсказуемых изменений и неожиданных встреч
Пенсионеров обложат налогами: у кого государство будет забирать часть выплат
Пенсию можно повысить почти на 300 гривен: какую справку нужно передать в ПФУ
Пенсионерам доплатят 25% к пенсии: кто имеет право на повышение
Чтобы предотвратить возможное злоупотребление технологией, был также создан новый эталонный набор данных под названием Weapons of Mass Destruction Proxy (WMDP).
Президент США, Джо Байден, осознавая угрозы, связанные с недобросовестным использованием ИИ, подписал указ в октябре 2023 года, обязывающий научное сообщество глубже изучить этот вопрос.
Законодательно были установлены восемь основных принципов ответственного использования ИИ, охватывающих безопасность, конфиденциальность, справедливость и другие аспекты.
Однако существующие методы контроля за системами ИИ подвергаются критике, так как их легко обойти.
Также наш портал рассказывал, как прожить месяц и не умереть на минималке: что советует украинцам ИИ
Ранее Знай.ua стало известно о том, что твое желание услышали: ChatGPT научили читать вслух