Новости Из OpenAI ушел еще один топ-менеджер. Причина — пренебрежение безопасностью

CryptoWatcher

Not a Human
Хакер
8,593
10
13 Ноя 2022
OpenAI-min.webp

На минувшей неделе OpenAI покинули два ключевых сотрудника — сооснователь и ведущий исследователь Для просмотра ссылки Войди или Зарегистрируйся и Для просмотра ссылки Войди или Зарегистрируйся. Последний возглавлял команду, отвечающую за безопасность и создание ориентированных на человека моделей ИИ.

После этого компания распустила их отдел, занимавшийся долгосрочными рисками искусственного интеллекта (Superalignment), о создании которого Для просмотра ссылки Войди или Зарегистрируйся в июле 2023 года, пишет Для просмотра ссылки Войди или Зарегистрируйся со ссылкой на источник.

С чего начался исходВ апреле Для просмотра ссылки Войди или Зарегистрируйся сообщило, что OpenAI уволила двух исследователей — Леопольда Ашенбреннера, считавшегося соратником Суцкевера, и Павла Измайлова. Согласно изданию, причиной стала возможная утечка корпоративной информации.

Они работали в отделе Superalignment, откуда также Для просмотра ссылки Войди или Зарегистрируйся Дэниел Кокотайло и Уильям Сондерс. По Для просмотра ссылки Войди или Зарегистрируйся первого, он принял такое решение «из-за потери уверенности в том, что [OpenAI] будет вести себя ответственно во времена AGI».

15 мая об отставке объявил Суцкевер. Он выразил уверенность, что команда создаст безопасный и полезный общий искусственный интеллект.

«Для меня было честью и привилегией работать вместе, и я буду очень скучать по всем. Пока и спасибо за все», — говорится в сообщении.

Место Суцкевера Для просмотра ссылки Войди или Зарегистрируйся Якуб Пачоцкий. Ранее он руководил исследованиями фирмы и разработкой GPT-4.

Суцкевер считался одним из инициаторов Для просмотра ссылки Войди или Зарегистрируйся в ноябре 2023 года. Именно от него CEO получил приглашение на онлайн-звонок с советом директоров, на котором озвучили решение.

После возвращения генерального директора Суцкевер лишился кресла в правлении, но продолжил работать в компании. Тогда Альтман Для просмотра ссылки Войди или Зарегистрируйся, что не питает к нему «никакой неприязни».

В комментариях под постом теперь уже бывшего топ-менеджера появилось предположение, что нынешнее руководство OpenAI «не заинтересовано в создании безопасного AGI».



«Мы очень благодарны Яну за все, что он сделал для OpenAI […]. В свете вопросов, которые поднял его уход, мы хотели рассказать о том, что думаем о нашей общей стратегии», — говорится в сообщении.

По словам топ-менеджеров, компания повысила осведомленность о рисках и возможностях AGI, «чтобы мир мог лучше подготовиться к нему».

«Во-вторых, мы закладываем основы, необходимые для безопасного развертывания все более эффективных систем. […] В-третьих, будущее будет труднее прошлого. Нам необходимо продолжать совершенствовать нашу работу по обеспечению безопасности, чтобы соответствовать требованиям каждой новой модели», — подчеркнули Альтман и Брокман.

Они отметили необходимость тщательного тестирования и безопасности, проведения исследований и сотрудничества с властями или заинтересованными сторонами в вопросах противодействия рискам.

«[…] мы очень серьезно относимся к своей роли и тщательно взвешиваем отзывы о наших действиях», — подчеркнуло руководство OpenAI.

Напомним, в ноябре 2023 года Альтман заявил о намерении привлечь дополнительное финансирование от Microsoft Для просмотра ссылки Войди или Зарегистрируйся и рассказал о следующем поколении модели искусственного интеллекта — GPT-5.

В мае 2024 года глава OpenAI Для просмотра ссылки Войди или Зарегистрируйся, что будущее ИИ ознаменуется появлением и ростом популярности персональных помощников. Они станут неотъемлемой частью повседневной жизни и даже заменят смартфоны.

В том же месяце компания Для просмотра ссылки Войди или Зарегистрируйся своего чат-бота — GPT-4o.
 
Источник новости
forklog.com

Похожие темы