Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Когда гигант искусственного интеллекта OpenAI представил свой проект «политики, ориентированной на свободу», в план действий по ИИ Белого дома в прошлый четверг, он предоставил администрации Трампа список желаний отрасли: использовать торговые законы для экспорта доминирования американского ИИ против надвигающейся угрозы Китая, ослабить ограничения на авторские права для обучающих данных (также для борьбы с Китаем), инвестировать неопределенные миллиарды в инфраструктуру ИИ (снова: Китай) и предотвратить принятие сотнями новых законов. Но конкретно – один закон: SB 1047, всеобъемлющий, спорный и пока что побежденный законопроект о безопасности ИИ Калифорнии.
Сотни законопроектов, связанных с ИИ, охватывают правительства штатов по всей стране, и ожидается, что к концу 2025 года их будет сотни, а может быть, и тысячи – регуляторный потоп, которому индустрия ИИ пытается избежать. Широкие нормы безопасности, подобные SB 1047, особенно угрожающие, представляя, возможно, экзистенциальную угрозу для OpenAI.
При этом совершенно отсутствует представление о том, как должен управляться ИИ – или вообще должен ли он управляться. «Предложение OpenAI о преэмпации, честно говоря, немного сбивает меня с толку, как человека, много думавшего об этой проблеме», – сказал Дин Болл (Dean Ball) из либертарианского Центра Меркатус.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...