Google не любит, когда ему показывают неудобные проблемы, экс-этичный со-руководитель ИИ «уволен» техническим гигантом за свое исследование
Google подавил Тимнит Гебру, бывшего соруководителя группы по этическому ИИ, потому что она не только выявила предвзятость в своих больших языковых моделях, но и призвала к структурным изменениям в области ИИ, сказал Гебру в интервью Going Underground.
Доктор Гебру была первой чернокожей женщиной-исследователем в Google, и ее скандальное расставание с технологическим гигантом в прошлом году попало в заголовки газет. Это последовало за ее отказом выполнить требование компании об отзыве статьи об этических проблемах, связанных с большими языковыми моделями (LLM), которые используются в Google Translate и других приложениях. Гебру утверждает, что ее уволили за свою позицию, в то время как Google утверждает, что она подала заявление об увольнении.
В понедельник в выпуске программы RT Going Underground она рассказала ведущей шоу Афшин Раттанси, почему рассталась с Google.
Этический ИИ — это «область, которая пытается гарантировать, что, когда мы работаем над технологией ИИ, мы работаем над этим с предвидением и пытаемся понять, каковы потенциальные негативные социальные эффекты, и минимизировать их», — сказал Гебру.
Именно этим она и занималась в Google до того, как, по ее мнению, была уволена компанией. «Я никогда не скажу, что ушел в отставку. Этого не произойдет », — сказал Гебру.
В документе 2020 года, подготовленном экспертом и ее коллегами, подчеркиваются «экологические и финансовые издержки» больших языковых моделей и содержится предостережение не делать их слишком большими. LLM «потребляют много компьютерной мощности», — пояснила она. «Итак, если вы работаете над все более крупными языковыми моделями, только люди с такими огромными вычислительными мощностями смогут их использовать … Те, кто извлекает выгоду из LLM, не те, кто оплачивает затраты». По ее словам, такое положение дел равносильно «экологическому расизму».
Большие языковые модели используют данные из Интернета для обучения, но это не обязательно означает, что они включают все мнения, доступные в Интернете, сказал Гебру, американец эфиопского происхождения. В документе подчеркиваются «опасности» такого подхода, который потенциально мог привести к обучению ИИ включению предвзятого и разжигающего ненависть контента.
С помощью LLM вы можете получить что-то, что звучит действительно плавно и связно, но совершенно неверно.
По ее словам, наиболее ярким примером этого является случай с палестинцем, который якобы был арестован израильской полицией после того, как алгоритмы Facebook ошибочно перевели его сообщение с надписью «Доброе утро» как «Атакуйте их».
Гебру сказала, что обнаружила, что ее начальникам в Google это действительно не нравится, «всякий раз, когда вы показываете им проблему, и она неудобна» или слишком велика, чтобы они могли в ней признаться. Действительно, компания хотела, чтобы она отказалась от своей академической рецензируемой статьи, которая должна была быть опубликована на научной конференции. Она настаивает на том, что это требование не было подтверждено какими-либо рассуждениями или исследованиями, а ее руководители просто сказали, что это «выявило слишком много проблем» с LLM.
Стратегия крупных игроков, таких как Google, Facebook и Amazon, состоит в том, чтобы притвориться, что предвзятость ИИ является «чисто технической проблемой, чисто алгоритмической проблемой … [that] он не имеет ничего общего с антимонопольным законодательством, монополиями, трудовыми вопросами или динамикой власти. Это чисто техническая вещь, над которой нам нужно работать », — сказал Гебру.
«Нам нужны правила. И я думаю, что … поэтому все эти организации и компании хотели жестко обрушиться на меня и еще несколько человек: потому что они думают, что то, за что мы выступаем, — это не простая алгоритмическая настройка, а более масштабные структурные изменения », — сказала она. сказал.
По словам Гебру, когда другие информаторы пошли по ее стопам, общество наконец начало понимать необходимость регулирования разработок в области ИИ, добавив, что общественность также должна быть готова защищать от их давления тех, кто раскрывает правонарушения корпораций.
После ухода из Google Гебру запустил группу «Черный в искусственном интеллекте», чтобы объединить ученых, занимающихся цветом, работающих в области искусственного интеллекта. Она также собирает междисциплинарную исследовательскую группу для продолжения своей работы в этой области. Она сказала, что не будет стремиться заработать много денег с помощью этого некоммерческого проекта, потому что «если ваша цель номер один — максимизировать прибыль, то вы собираетесь срезать углы» и в конечном итоге создание полной противоположности этическому ИИ.