«Вымирание» ИИ должно быть таким же приоритетом, как и ядерная война

«Вымирание» ИИ должно быть таким же приоритетом, как и ядерная война

Центр безопасности ИИ опубликовал заявление, подписанное 350 лидерами отрасли, включая генеральных директоров OpenAI и Google DeepMind.

Предотвращение неконтролируемого искусственного интеллекта, который может привести к вымиранию человечества, должно стать глобальным приоритетом высшего уровня, говорится в заявлении некоммерческого Центра безопасности ИИ, подписанном во вторник 350 видными деятелями в области ИИ и смежных областях.

«Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война», — говорится в заявлении.

Среди подписантов были генеральный директор Google DeepMind Демис Хассабис, генеральный директор Anthropic Дарио Амодей и генеральный директор OpenAI Сэм Альтман, который недавно заявил Конгрессу, что обеспокоен тем, что технология может пойти «совершенно неправильно», и призвал их ввести правила в отрасли. В начале этого месяца три лидера отрасли встретились с президентом США Джо Байденом и вице-президентом Камалой Харрис, чтобы обсудить возможные правила. Многие руководители своих компаний также добавили свои имена в заявление во вторник.

Джеффри Хинтон и Йошуа Бенжио, считающиеся «крестными отцами ИИ» за их работу над нейронными сетями, были указаны в документе первыми, хотя Янн ЛеКун, который проводил с ними исследования, а теперь руководит исследованиями ИИ для Meta, не подписался. Хинтон покинул свой пост в Google в начале этого месяца, чтобы забить тревогу по поводу рисков, связанных с искусственным интеллектом, и сказал, что иногда сожалеет о работе всей своей жизни.

Прочитайте также  Две ракеты дальнего радиуса действия британского производства сбиты - МО РФ

Письмо представляет собой «откровение» лидеров отрасли, которые ранее скрывали свои опасения по поводу будущего ИИ, заявил во вторник New York Times исполнительный директор Центра безопасности ИИ Дэн Хендрикс.

«Даже в сообществе AIA существует очень распространенное заблуждение, что существует лишь горстка думеров», — пояснил он, уточнив, что «многие люди в частном порядке выражали бы озабоченность по поводу этих вещей».

Сообщение перекликается с другим открытым письмом, опубликованным в марте Институтом будущего жизни, в котором аргументируется шестимесячный мораторий на крупномасштабные разработки ИИ, чтобы избежать «неконтролируемой гонки по разработке и внедрению все более мощных цифровых умов». ». Это сообщение подписали более 1000 влиятельных фигур в области технологий, в том числе миллиардер Илон Маск, который только что получил одобрение правительства США на проведение испытаний на людях своего нейрокомпьютерного интерфейса Neuralink, который призван дать людям конкурентное преимущество перед ИИ.

Прочитайте также  Что мы знаем о новой российской ракете "Орешник"

Однако не все инфлюенсеры ИИ боятся оружия. Генеральный директор Nvidia Дженсен Хуан недавно сказал аудитории в Национальном тайваньском университете, что те, кто не прыгнет на гигантский ИИ, увидят, что их рабочие места будут украдены, их компании погибнут, а их самих съедят — по крайней мере, метафорически — в то время как соучредитель Microsoft Билл Гейтс, крупный инвестор в области искусственного интеллекта настаивает на том, что технология принесет только «огромные преимущества».

Добавить комментарий