О БОТЕ ГРЯДУЩЕМ ЗАМОЛВИЛИ СЛОВО

Albert Efimoff
4 min readMar 1, 2023

--

Сэм Альтман и его новая статья.

Альберт Ефимов, к.филос.н.

Не думаю, что читателю возраста 40+ будет сложно представить себе вечер в обыкновенной квартире, когда он семьей пьет теплый чай с бубликами и брынзой и смотрит по телевизору какой-нибудь революционный боевик. Вдруг звонок в дверь, на пороге стоит комиссар в кожанке и с маузером наперевес: «здравствуйте, я пришел дать всем вам изобилие и невероятные, но равные возможности! Мы не хотим потрясений, поэтому двигайтесь медленно! Если что-то нужно, спросите у меня!». Представили (это не сложно)? Вот примерно это написал основатель OpenAI Сэм Альтман на прошлой неделе.

У любого человека, который хотя бы немного застал СССР непременно возникнет единственная ассоциация «сейчас отберут», но может быть «что-то и оставят». Наш культурный код не дает ошибки в этом случае. Сейчас я попробую разобрать ряд интересных деталей из этой короткой заметки.

Сэм и его компания считают, что «будущее человечества должно определяться человечеством», а не машинами. В принципе с этим тезисом спорить можно, но не нужно. Давайте надеяться на лучшее, если хотя бы с настоящим разберемся. Я формулирую несколько тезисов, которые, может быть, позднее раскрою.

1. Общий ИИ создает риски, по мнению Альтмана, для человечества, с которыми следует обращаться очень осторожно. Но, вот как это обращение мыслит себе Альтман? Он говорит примерно следующее: надо двигаться короткими перебежками, медленно. Чтобы была возможность поправить если-что то идет не так. И это первая проблемная область. OpenAIпока безоговорочный лидер (хотя может и царь горы) в гонке за ИИ. И когда лидер говорит всем «эй, ребята, торопится не надо», то понимаешь, что именно в этот момент надо бросить все и бежать из всех сил.

2. В заметке говорится, что «сообщество и разработчики должны выяснить как это сделать правильно». Опять же, это старый и хороший тезис о том, что вся власть о знании «как правильно» должна принадлежать технократам. Может быть это и было бы хорошо, но проблема в том, что технократы сами не знают, как правильно. Сам же Альтман пишет далее, что «большинство прогнозов экспертов были ошибочны». Все что может предложить это сообщество «А/B тестирование» на выборке, которая будет отражать срез общества. Но увы, это может работать с запуском коммерческой услуги е-com, но не годится для запуска услуги с потенциально экзистенциальной угрозой. Вы же не запускаете атомную станцию по результатам А/B тестирования продуктовых гипотез?

3. Альтман несколько раз в заметке говорит про плотную обратную связь, о том, как это важно для быстрого извлечения уроков из опыта. Но ни одного намека на инструменты такой обратной связи он не дает. И есть одна проблема. Большая проблема. Даже если инструменты обратной связи о внедрении ОИИ будут найдены, то они начнут работать только в том случае, если в самом обществе, понимаемом на национальном уровне, работает механизм обратной связи, понимаемой в кибернетическом смысле. Если запуск подразумевает «корпорация сделала продукт и собирает обратную связь», то в нормальной ситуации корпорация, продукт которой не желателен пользователям, просто уберет его с рынка. Но в ситуации отсутствии обратной связи в обществе, мы получим продукт-зомби, который нужен заказчику, но у общества нет никаких механизмов обратной связи для того, чтобы убрать продукт.

4. Альтман надеется (как и мы) на глобальный разговор о том, как управлять ОИИ, как справедливо распределять выгоды и как делится доступом. Это очень благородное заявление, особенно с учетом того, что на наших данных он обучил свои системы. Но зачем же начинать «глобальный разговор» с того, что пользователям из России и Китая запрещен доступ к созданным OpenAI системам? Здесь уж я точно готов согласится с тем, кто говорит, что «нам не оставили выбора».

5. Последний пункт выглядит очень выпукло в свете того, что системы, подобные созданной OpenAI действительно глобальны, так как они созданны на наших данных. Ладно, буду специфичен. Все мои умные мысли (которые ранее я выложил куда нибудь в интернет), Сэм Альтман и его краулеры скачали и отправили в свою машинку. Теперь, мои мысли, которые уж, конечно, не хуже других мыслей общества woke, отправились в бесконечное путешествие по глубоким нейронным сетям chatGPT. Честно, я иногда узнаю свои шутки в анекдотах этой нейронки. Но если все наши тексты, милые котики и проч. Оказались в недрах chatGPT, то почему я должен через VPN и левый номер обращаться к ней с вопросами?

6. Последнее, и самое важное. Этот текст Альтмана по сути дела — прощание с концепцией искусственного интеллекта. Его больше не существует ни как области исследований ни как области технологий. Это кажется парадоксом? Альтман (а на самом деле и все остальные) говорят, что делать надо суперинтеллект. Мы пришли к ситуации, когда ясно и четко осознали, что повторить человеческий интеллект искусственным (кремниевым) способом невозможно. И будет невозможно очень долго. Именно поэтому цель Альтмана — суперинтеллект. Эта цель ясна, достижима и вблизи. Тут я с ним согласен. Только дело в том, что супер-интеллект это уже не интеллект вообще. Это «другой» интеллект. Он не обладает и долей нашей рациональности. Это не как мен, только супер-мен. Т.е. супер-хороший, как в комиксах. Это вообще другое. Не такое как мы привыкли. Зловещая долина, которую Мори открыл для роботов пять десятков лет назад, только открывается для чат-ботов. Помните, что говорил Ли Седоль про ходы AlphaGo? «как будто их придумал не человек». Вот примерно то же мы будем говорить про диалоги с ботами, который год грядущий нам готовит.

Уважаемые инженеры и исследователи ИИ. Ну конечно, п.6 преувеличение, гипербола. Не принимайте близко к сердцу) ИИ, как область, будет еще долго и славно жить своей кремниевой жизнью.

--

--