Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Двое пионеров науки, сегодня удостоенные премии Тьюринга за создание фундаментальных методов обучения искусственного интеллекта, используют свое внимание для того, чтобы привлечь к опасностям быстрого внедрения AI-моделей в общественное потребление. Исследователь Университета Массачусетса Андрей Барто (Andrew Barto) и бывший исследователь DeepMind Ричард Саттон (Richard Sutton) предупредили, что компании по разработке искусственного интеллекта не тщательно проверяют продукты перед выпуском, сравнивая это с тем, как "строить мост и тестировать его, используя людей для прохода".
Премия Тьюринга, часто называемая "Нобелевской премией в области вычислений"
, включает денежный приз в размере миллиона долларов. Она была совместно вручена Барто и Саттону за развитие метода "усилительного обучения" — подхода машинного обучения, который тренирует системы AI на основе опыта через ошибки и успехи.
Сеньор-вице-президент Google Джефф Дин (Jeff Dean) описывает этот метод как ключевой элемент прогресса в области ИИ
, который долгое время был "основой бума искусственного интеллекта", приведшего к появлению моделей, таких как ChatGPT от OpenAI и AlphaGo от Google.
"Выпускать программное обеспечение миллионам людей без соответствующих мер безопасности — это не лучшая практика инженерии," заявил Барто Financial Times. "Практики инженерной деятельности развивались для минимизации негативных последствий технологий, и я не вижу этого среди компаний, занимающихся разработкой."
Несколько критиков безопасности искусственного интеллекта, включая двух из "отцов-основателей AI" — Юшую Бенжо (Yoshua Bengio) и Джеффри Хинтона (Geoffrey Hinton), предыдущих лауреатов премии Тьюринга, также выразили обеспокоенность. В 2023 году группа ведущих исследователей, инженеров и CEO, среди которых генеральный директор OpenAI Сэм Альтман (Sam Altman), выпустила заявление, в котором говорится о том, что "снижение риска вымирания из-за ИИ должно стать глобальным приоритетом."
Барто отметил, что компании по разработке AI мотивированы коммерческими интересами вместо того чтобы сосредоточиться на продвижении исследований в области искусственного интеллекта. OpenAI, которая неоднократно обещала улучшить безопасность ИИ и временно отстранила Альтмана за "излишне коммерциализированное развитие технологий до понимания последствий", объявила в декабре о планах трансформироваться в прибыльную компанию.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...