Груз ответственности » Элитный трейдер
Элитный трейдер


Груз ответственности

28 января 2023 giovanni1313

Больше всего напрягаются от появления ChatGPT не обладатели дипломов MBA, а топ-менеджеры “Google”. Менеджмент видит в этой нейросети новый подход к веб-поиску: вместо выдачи ссылок на веб-страницы «умный» бот будет давать ответ напрямую. Как показали многочисленные отзывы пользователей ChatGPT, ответы от бота нравятся им гораздо больше, чем «гугление».

Груз ответственности


Напряжение менеджмента еще больше усилилось, когда стало известно, что ”Microsoft” собирается встроить ChatGPT в свой конкурирующий веб-поиск, Bing. И, по-видимому, к концу прошлого года напряжение стало таким невыносимым, что гендиректор «Гугла» Сундар Пичаи решил задействовать самую радикальную, самую критическую опцию, последний резерв...

...А именно, обратиться к фаундерам, Ларри Пейджу и Сергею Брину. Живым легендам. Они породили этот бизнес — они его и убьют и выведут его из экзистенциально-нейросетевого кризиса.

Пейдж и Брин в 2019 оставили «Гугл», чтобы пожить в своё удовольствие. Брин занялся благотворительностью. Пейдж попробовал себя в роли бизнес-ангела — но по большей части вёл отшельническую жизнь на одном из принадлежащих ему тропических островов. Однако теперь — труба зовёт! — от них требовался вердикт относительно дальнейших действий компаний.



Какой вердикт могут вынести основатели, которые три года совершенно не интересовались поисковым бизнесом «Гугла»? Правильно: это зависит от того, как им преподнести вопрос. Поэтому в корпоративной штаб-квартире закипела работа: к высокопоставленному визиту писались докладные записки и составлялись презентации, в которых максимально наглядно отражалась позиция нерешительного, но перенапрягшегося топ-менеджмента.

Итак, какие именно изменения захотел внести Пичаи? Ускорить внутренний процесс по одобрению разрабатываемых продуктов. А конкретнее — приказать группам, отвечающим за этику ИИ (и, шире, этику технологий), не мудрить с проверками и придирками, а поскорее выносить положительное заключение.

Кроме того, для команд, разрабатывающих ИИ, было предложено проводить самостоятельную оценку продуктов. А если в команде вдруг не окажется специалиста по этике — значит, будет меньше геморроя. Вон, в своё время вышвырнули на улицу Тимнит Гебру за несогласие с линией партии — и ничего, апокалипсиса не случилось.



Да и вообще, необходимо «перекалибровать приемлемый уровень риска» для продуктов, выпускаемых компанией. Эту изящную формулировку стоит понимать исключительно как желание релизить сервисы во что бы то ни стало, не особо оглядываясь на возможные последствия.

Короче, посторонись, Цукерберг. Мы сейчас будем двигаться быстро и ломать вещи.

Вся эта необходимость ускорения и «перекалибровки» возникли ровно потому, что рисков в нынешних разработках «Гугла» действительно много. Так, одна из его неназванных моделей (возможно, LaMDA) ощутимо проигрывает GPT в бенчмарках, оценивающих токсичность, язык ненависти, сексуальный контент и прочие неподобающие вещи. Эти бенчмарки — не слишком точная штука, когда дело касается реального взаимодействия с пользователями, но за неимением других показателей на них ориентироваться можно.

Кроме того, сами топы «Гугла» на внутреннем совещании, прошедшем незадолго до встречи с фаундерами, признавали неготовность своих технологий. Так, Джефф Дин, глава ”Google AI”, признался, что технология «не там, где она должна быть для полномасштабного публичного запуска». «ИИ может выдумать какие-то вещи», — отметил он.

Как вы думаете, считает ли «Гугл» самыми главными риски токсичных ответов? Фактологически недостоверных ответов? Ха, конечно нет. Пользовательский опыт может идти в… туда же, куда и этика технологий. Нет, главные риски — это копирайт, приватность (не пользователей, а тех, чьи данные могла запомнить нейросеть) и антимонопольное регулирование. Капитализм, спасибо тебе за это!

Ну хорошо, я несколько утрировал по поводу пользовательского опыта: соответствие фактам (и политически модная борьба с дезинформацией) всё же будет в числе приоритетов разработчиков ИИ для поиска. Надо полагать, что, не займись дезинформацией сам «Гугл», правительство США всё равно заставит его разбираться с этой проблемой. Только репутационные потери будут уже гарантированы.

Что же касается других продуктов, кроме поиска — тут для разработчиков требования более льготные. Что получится, то и получится. Проблемы с предубеждениями и дезинформацией будут решать по мере их поступления. А пока «Гугл» наскоро составит список стоп-слов, будет их блокировать, и на этом сочтет свою миссию успешной.

И вот, собственно говоря, почему Сундар Пичаи за весь этот парад рисков должен единолично нести ответственность? Потому что он получает за свою работу 6 млн. долларов в год? Да это копейки по меркам Креминевой долины! И ладно бы эти копейки получал какой-нибудь дурак — но Пичаи далеко не дурак. И вообще, у Пичаи есть Ларри Пейдж и Сергей Брин. На двоих у них 51% голосующих акций ”Alphabet” и 150 млрд. долларов состояния. Конечно, никто не будет утверждать, что Брин и Пейдж дураки — но почему бы им не взять ответственность на себя?

Внимательно изучив составленные командой Пичаи документы, Пейдж и Брин, как и положено фаундерам, продемонстрировали исключительные лидерские качества и постановили: действуй, Сундар!



Хочешь ИИ быстро и с рисками? Валяй. Хочешь чатбота интегрировать в поиск? Без проблем, и даже расширь его функционал побольше. Была не была!

И, покончив с формальностями, довольные разъехались по своим делам. Где рисков, надо заметить, поменьше.

Что ж, напряжение в рядах топ-менеджмента «Гугл» после этой плодотворной встречи наверняка ощутимо спало.

А вот не придётся ли напрягаться пользователям новых сервисов «Гугл» — мы узнаем уже через несколько месяцев.

(C) Источник
Не является индивидуальной инвестиционной рекомендацией
При копировании ссылка обязательна Нашли ошибку: выделить и нажать Ctrl+Enter