Воскресенье, 20 апреля в 06:54 UTC+3
Загрузка...

Лауреаты премии Тьюринга вновь предупреждают об опасностях ИИ


40Опубликовано 07.03.2025 в 08:27Категория: ИИИсточник
Изображение статьи

Двое пионеров науки, сегодня удостоенные премии Тьюринга за создание фундаментальных методов обучения искусственного интеллекта, используют свое внимание для того, чтобы привлечь к опасностям быстрого внедрения AI-моделей в общественное потребление. Исследователь Университета Массачусетса Андрей Барто (Andrew Barto) и бывший исследователь DeepMind Ричард Саттон (Richard Sutton) предупредили, что компании по разработке искусственного интеллекта не тщательно проверяют продукты перед выпуском, сравнивая это с тем, как "строить мост и тестировать его, используя людей для прохода".

Премия Тьюринга, часто называемая "Нобелевской премией в области вычислений", включает денежный приз в размере миллиона долларов. Она была совместно вручена Барто и Саттону за развитие метода "усилительного обучения" — подхода машинного обучения, который тренирует системы AI на основе опыта через ошибки и успехи.

Сеньор-вице-президент Google Джефф Дин (Jeff Dean) описывает этот метод как ключевой элемент прогресса в области ИИ, который долгое время был "основой бума искусственного интеллекта", приведшего к появлению моделей, таких как ChatGPT от OpenAI и AlphaGo от Google.

"Выпускать программное обеспечение миллионам людей без соответствующих мер безопасности — это не лучшая практика инженерии," заявил Барто Financial Times. "Практики инженерной деятельности развивались для минимизации негативных последствий технологий, и я не вижу этого среди компаний, занимающихся разработкой."

Несколько критиков безопасности искусственного интеллекта, включая двух из "отцов-основателей AI" — Юшую Бенжо (Yoshua Bengio) и Джеффри Хинтона (Geoffrey Hinton), предыдущих лауреатов премии Тьюринга, также выразили обеспокоенность. В 2023 году группа ведущих исследователей, инженеров и CEO, среди которых генеральный директор OpenAI Сэм Альтман (Sam Altman), выпустила заявление, в котором говорится о том, что "снижение риска вымирания из-за ИИ должно стать глобальным приоритетом."

Барто отметил, что компании по разработке AI мотивированы коммерческими интересами вместо того чтобы сосредоточиться на продвижении исследований в области искусственного интеллекта. OpenAI, которая неоднократно обещала улучшить безопасность ИИ и временно отстранила Альтмана за "излишне коммерциализированное развитие технологий до понимания последствий", объявила в декабре о планах трансформироваться в прибыльную компанию.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.