Подписывайся! Будь в курсе последних новостей
подписаться

Автор Администратор Сайта

МОСКВА, 8 апреля /Новости науки/. Компания OpenAI, создавшая знаменитую нейросеть, которую мы знаем как ChatGPT, опубликовала программный документ о будущих взаимоотношениях человечества и сверхразума AI.

Мы публикуем основные идеи и выдержки из этого документа.
I.
OpenAI исходит из того, что человечество вступает в новую эпоху — эпоху перехода от нынешнего ИИ к суперинтеллекту, то есть к системам, которые смогут превосходить даже самых умных людей, включая людей, усиленных ИИ. Авторы считают, что этот переход уже начался и будет иметь последствия не только для технологий, но и для экономики, труда, науки, социальной системы, демократии и распределения власти. Главная мысль документа состоит в том, что развитие такого ИИ нельзя оставлять только на волю рынка или узкого круга компаний: нужно заранее вырабатывать новую промышленную политику, которая поставит в центр человека, а не только эффективность и прибыль.
Авторы подчеркивают, что суперинтеллект сулит огромные преимущества. Он может ускорить научные открытия, прорывы в медицине, повысить производительность, удешевить необходимые товары и услуги, открыть новые формы творчества, предпринимательства и занятости. ИИ уже движется от выполнения задач на минуты и часы к выполнению проектов, на которые людям сейчас требуются месяцы. Это радикально изменит работу организаций, способы производства знаний и само понимание труда и возможностей. Но одновременно OpenAI признает серьезные риски: исчезновение профессий и перестройку отраслей, злоупотребление ИИ со стороны преступников или государств, возможную потерю контроля над мощными системами, подрыв демократических ценностей и концентрацию богатства и власти в руках немногих.
Поэтому документ формулирует три базовые цели. Первая — широко распределять процветание: ИИ должен повышать уровень жизни всех, а не только элит. Вторая — снижать риски: по мере роста возможностей ИИ должны расти и механизмы безопасности, контроля и управления. Третья — демократизировать доступ и субъектность: участие людей в экономике ИИ не должно зависеть только от доступа к самым мощным моделям, но должно обеспечиваться через полезный, доступный, безопасный и расширяющий возможности человека ИИ.

II.
Центральный тезис документа — для эпохи суперинтеллекта нужна новая промышленная политика. Авторы проводят историческую аналогию с индустриальной эпохой, когда государства были вынуждены создавать новые институты, трудовые гарантии, социальную защиту и стандарты безопасности. По их мнению, так же и сейчас одних рыночных механизмов недостаточно. Государство должно использовать существующие инструменты — финансирование исследований, подготовку кадров, регулирование, инвестиции, закупки — но не в одиночку: вместе с бизнесом, научными организациями и гражданским обществом. Негосударственные игроки должны быстро тестировать новые подходы, а государство — масштабировать работающие решения. При этом авторы отдельно предупреждают против регуляторного захвата и чрезмерной концентрации контроля.

Первая большая часть документа посвящена построению открытой экономики. Здесь главный вопрос — как сделать так, чтобы ИИ не разрушил социальную ткань и не усилил неравенство. Предлагается дать работникам реальный голос при внедрении ИИ на рабочих местах. Идея в том, что именно работники лучше всего понимают, как устроен труд и где ИИ может сделать его безопаснее, качественнее и продуктивнее. ИИ должен убирать опасные, рутинные, истощающие и административные задачи, а не просто усиливать контроль, увеличивать нагрузку, лишать автономии или ухудшать графики и оплату.

III.
Отдельно предлагается поддерживать «ИИ-предпринимателей», то есть помогать людям превращать профессиональную экспертизу в собственный бизнес. Для этого ИИ должен брать на себя бухгалтерию, маркетинг, закупки и другую административную нагрузку. В помощь таким работникам авторы предлагают микрогранты, финансирование, типовые правовые решения и общую инфраструктуру. Также выдвигается идея «права на ИИ»: доступ к ИИ должен стать такой же базовой инфраструктурой, как доступ к электричеству, интернету или образованию. Это означает необходимость дешевого или бесплатного доступа к базовым моделям, а также инвестиций в обучение, подключение, инфраструктуру и цифровую грамотность, чтобы малый бизнес, школы, библиотеки и бедные сообщества не были отрезаны от новой экономики.
IV.
Большой блок касается налогов и распределения выгод. Авторы предполагают, что в экономике ИИ будет возрастать роль капитала, корпоративной прибыли и доходов от автоматизации, а роль трудовых доходов и налогов на фонд оплаты труда — снижаться. Из-за этого может ослабнуть налоговая база, на которой держатся социальные программы. В ответ предлагается модернизировать налоговую систему: сильнее опираться на налогообложение капитала, прибыли и, возможно, автоматизированного труда, одновременно сохраняя стимулы компаниям удерживать, обучать и переобучать работников.
Связана с этим и идея создать Фонд общественного благосостояния. Его смысл в том, чтобы каждый гражданин имел прямую долю в росте, который приносит ИИ, даже если он не владеет акциями и не участвует в финансовых рынках. Такой фонд мог бы инвестировать в ИИ-компании и более широкий круг компаний, выигрывающих от внедрения ИИ, а доходы распределялись бы среди граждан.

V.
Следующее направление — инфраструктура. Авторы считают, что развитие ИИ потребует резкого расширения энергетической системы, и потому нужны новые государственно-частные механизмы для строительства и модернизации сетей, особенно высоковольтной межрегиональной передачи. При этом дата-центры ИИ, по мысли документа, не должны перекладывать энергетические расходы на население; наоборот, они должны обеспечивать рабочие места и налоговые поступления, а модернизация инфраструктуры должна в итоге снижать цены на энергию для домохозяйств и бизнеса.

Еще одна важная идея — превращать рост эффективности в выгоды для работников. Если ИИ уменьшает объем рутинной работы и снижает издержки компаний, это должно выражаться не только в прибылях акционеров, но и в лучших пенсионных отчислениях, большей оплате медицинских расходов, поддержке ухода за детьми и пожилыми. Также предлагаются эксперименты с 32-часовой четырехдневной рабочей неделей без снижения зарплаты, если производительность сохраняется. Смысл в том, чтобы «дивиденд эффективности» проявлялся и в деньгах, и во времени, возвращаемом человеку.

VI.
Документ также делает сильный акцент на модернизации социальной защиты. Сначала нужно просто обеспечить, чтобы уже существующие программы — пособия по безработице, продовольственная помощь, медстрахование, пенсии и другие базовые инструменты — работали быстро, надежно и без сбоев. Далее предлагается создать систему мониторинга того, как ИИ влияет на занятость, зарплаты, качество труда и отдельные отрасли и регионы. Если определенные показатели ухудшаются выше заранее заданных порогов, автоматически должны включаться временные меры поддержки: расширенные пособия, быстрые денежные выплаты, страхование потери заработка, ваучеры на переобучение. То есть защита должна быть адаптивной и автоматически наращиваться в периоды шока.
Смежная идея — переносимые льготы и гарантии. В будущем социальные права должны быть привязаны не к одному работодателю, а к самому человеку, чтобы медицинская страховка, пенсионные накопления и обучение сохранялись при смене работы, сектора, формата занятости или переходе в предпринимательство.
В документе отдельно подчеркивается, что по мере автоматизации экономики возрастет значение «человеко-ориентированного труда» — ухода за детьми и пожилыми, образования, здравоохранения, социальных и общественных услуг. ИИ может помогать в этих сферах, снимая бумажную и административную нагрузку, но сам человеческий контакт останется незаменимым. Поэтому авторы предлагают развивать эти сектора как естественное направление для работников, вытесняемых автоматизацией, повышать там оплату и качество рабочих мест, а также ввести семейные пособия, признающие уход и заботу общественно и экономически значимым трудом.

VII.
Еще один крупный блок первой части касается науки. Авторы считают, что ИИ нужно встроить в лаборатории и экспериментальные процессы, чтобы резко ускорить проверку гипотез, генерацию данных и переход от идеи к проверенному знанию. Для этого предлагается создать распределенную сеть лабораторий с ИИ, а также инвестировать не только в науку как таковую, но и в производство, внедрение, оборудование, персонал, техников и операторов. Главная мысль здесь — прорывы должны не оставаться в элитных лабораториях, а доходить до университетов, больниц, местных колледжей и региональных научных центров.
Вторая большая часть документа посвящена построению устойчивого общества. Здесь основной акцент уже не на распределении выгод, а на безопасности, подотчетности, контролируемости и способности институтов выдержать переход. Авторы пишут, что ИИ может создавать новые уязвимости: киберугрозы, биологические угрозы, риски для молодых людей и психического состояния, ошибки и действия, не соответствующие человеческим намерениям, а также новое давление на государственные и общественные институты. Эти риски не изолированы: ИИ одновременно меняет труд, управление, организацию институтов и международные отношения. Поэтому устойчивость должна быть системной.

VIII.
OpenAI признает, что в последние годы много внимания уделялось упреждающим мерам: тестированию моделей, red teaming, стандартам, прозрачности и ограничениям до развертывания. Но этого недостаточно. По мере распространения ИИ требуется и «послеразверточная» устойчивость: мониторинг в реальном времени, контроль поведения систем в живой среде и адаптация институтов, которые не были рассчитаны на агентные ИИ-системы.

IX.
Далее документ предлагает целый набор мер. Во-первых, нужно развивать системы безопасности для новых рисков — инструменты, которые защищают модели, выявляют опасные сценарии и предотвращают злоупотребления в киберсфере, биологии и других областях с высокими ставками. Здесь же предлагается использовать сам передовой ИИ для моделирования угроз, стресс-тестов, оценки уязвимостей и выработки мер защиты. Дополнительно предлагается развивать сопутствующие системы реагирования — например, механизмы быстрого создания медицинских контрмер в случае биологических угроз. Важная мысль: безопасность должна стать не просто обязанностью, а целым конкурентным рынком, который государство и институты будут поддерживать через закупки, стандарты, страховые механизмы и авансовые обязательства.
Во-вторых, предлагается создать «стек доверия к ИИ» — набор технических и институциональных решений, позволяющих проверять, что делает ИИ, кто породил контент, какие действия были совершены, и при этом не превращать все это в тотальную слежку. Речь идет о проверяемом происхождении контента, цифровых подписях, приватном журналировании, аудите и системах, которые позволяют расследовать вред и устанавливать ответственность без избыточного вторжения в частную жизнь.
В-третьих, авторы выступают за развитие режимов аудита передового ИИ. Предлагается укреплять специализированные институты, прежде всего CAISI, чтобы они разрабатывали стандарты аудита рисков и формировали рынок независимых аудиторов и оценщиков. При этом строгие требования должны касаться лишь небольшого числа самых мощных моделей и компаний — прежде всего там, где ИИ может существенно усилить химические, биологические, радиологические, ядерные или киберриски. Менее мощные модели и стартапы не должны быть задавлены чрезмерным регулированием.

X.
Отдельно поднимается тема сдерживания уже выпущенных опасных моделей. Авторы допускают, что могут появиться ситуации, когда систему уже нельзя просто «отозвать»: например, если опубликованы веса модели или система способна к автономному распространению. Тогда нужна логика containment — не полного устранения, а ограничения распространения, минимизации ущерба и координированного ответа, как это бывает в кибербезопасности или общественном здравоохранении.

XI.
Еще одна линия — корпоративное управление самими передовыми ИИ-компаниями. OpenAI предлагает, чтобы такие компании принимали формы управления, встраивающие общественный интерес в принятие решений, например модели Public Benefit Corporation. Они должны иметь обязательства по широкому распределению выгод, в том числе через долгосрочную филантропию. При этом сами системы должны быть защищены от внутреннего захвата: веса моделей, вычислительная инфраструктура и высокорисковые развертывания должны быть защищены от того, чтобы отдельные лица или группы могли использовать ИИ для скрытой концентрации власти.
XII.
Очень важен и блок про государство. Авторы считают, что законодатели должны четко определить, как государство может и как не может использовать ИИ, установив высокие стандарты надежности и безопасности. Но при этом ИИ можно и нужно использовать для усиления демократии и контроля: цифровые журналы ИИ-систем могут облегчить надзор со стороны судов, парламентских комитетов и инспекций, а также сделать более прозрачными государственные решения. С этим связана и идея модернизации законодательства о доступе к информации, чтобы граждане и общественные организации могли использовать ИИ для анализа действий государства, не раскрывая при этом чувствительные данные.
XII.
Документ также настаивает на механизмах общественного участия. Нельзя, чтобы представления о том, каким должен быть «согласованный» ИИ, определялись только инженерами и руководителями корпораций. Разработчики должны публиковать спецификации моделей и критерии оценки, а государственные и общественные институты — помогать закреплять эти стандарты в рамках демократических законов и ценностей. Нужны и механизмы представительного участия общества, чтобы у людей был реальный голос в определении того, как должен вести себя ИИ.
XIV.
Еще одно предложение — система обязательного или организованного сообщения об инцидентах, злоупотреблениях и «почти-инцидентах», когда вред удалось предотвратить, но были тревожные сигналы. Такая информация должна передаваться специально назначенному государственному органу. Смысл не в наказании, а в коллективном обучении и предотвращении будущих проблем, при разумной публичности и защите чувствительных данных.
XV.
Наконец, документ призывает к международному обмену информацией о возможностях ИИ, рисках и способах их снижения. Для этого предлагается укреплять национальные оценочные институты и на их базе создавать глобальную сеть AI Institutes, способных обмениваться данными, координировать оценки, совместно разрабатывать меры смягчения рисков и взаимодействовать в кризисах. Эта система должна касаться не только национальной безопасности, но и более широких общественных рисков, включая благополучие детей и молодежи.

В финале OpenAI подчеркивает, что не предлагает готовый и окончательный рецепт. Документ задуман как начало широкой дискуссии о том, как управлять переходом к суперинтеллекту в интересах людей. Этот разговор, по мысли авторов, должен быть демократическим, международным, открытым для государств, компаний, исследователей, гражданского общества, сообществ и семей. В практическом плане OpenAI предлагает собирать отзывы, финансировать исследования и стажировки по этой тематике и проводить дискуссии.