Вс. Ноя 24th, 2024

30 октября администрация президента США Джо Байдена опубликовала указ, устанавливающий новые стандарты безопасности и защиты искусственного интеллекта.

26 пунктов разделены на восемь групп, каждая из которых направлена ​​на то, чтобы ИИ использовался для максимизации предполагаемых преимуществ и минимизации любых рисков. Кроме этого, реализация документа должна поставить США в авангарде определения барьеров для технологии и содействия продолжению исследований.

«Исполнительный указ […] защищает частную жизнь американцев, продвигает равенство и гражданские права, защищает интересы потребителей и работников, поощряет инновации и конкуренцию, способствует американскому лидерству во всем мире и многое другое», — говорится на сайте. 

Документ требует от разработчиков «самых мощных» ИИ-систем делиться с правительством результатами испытаний на безопасность и «критической информацией». В целях обеспечения защиты и надежности технологии планируется разработать стандартизированные инструменты и тесты.

В документе говорится о росте «мошенничества и обмана с использованием искусственного интеллекта», необходимости создания инструментов для поиска и устранения уязвимостей в критически важном ПО, а также разработке меморандума о нацбезопасности. Последний призван определить в дальнейшем действия в области ИИ и безопасности. 

«Без гарантий искусственный интеллект может еще больше подвергнуть риску частную жизнь американцев. ИИ не только упрощает извлечение, идентификацию и использование персональных данных, но и повышает стимулы к этому, поскольку компании используют данные для обучения систем ИИ», — говорится в указе.

Согласно документу, безответственное использование технологии может привести к дискриминации, предвзятости и другим злоупотреблениям. 

https://forklog.com/exclusive/ai/chatgpt-antonim-vikipedii-filosof-gaspar-kyonig-ob-ugrozah-ii-vydumannyh-i-realnyh

В мае глава OpenAI Сэм Альтман выступил перед Конгрессом США и призвал правительство урегулировать использование и разработку искусственного интеллекта. Ранее исследователи компании предупредили о растущей угрозе использования языковых моделей для распространения дезинформации.

Напомним, в июне представители ООН заявили, что созданные ИИ дипфейки вредят целостности информации и приводят к разжиганию ненависти в обществе.

В свою очередь американские ученые призвали к противодействию дипфейкам, созданным «вражескими государствами».