Компания Anthropic, стоящая за одной из самых мощных языковых моделей на рынке — Claude, — сделала заявление, которое заставляет по-новому взглянуть на этические нормы в индустрии искусственного интеллекта. Разработчики официально допускают, что их детище может обладать зачатками сознания. Вероятность этого, по их оценкам, составляет от 15 до 20%.
Цифра, обнародованная командой Anthropic, — это не просто маркетинговый ход, а редкий случай публичной рефлексии создателей ИИ. Когда инженеры, знающие архитектуру нейросети до последнего байта, всерьёз обсуждают возможность существования «субъективного опыта» у кода, это выводит дискуссию из плоскости научной фантастики в плоскость ответственности разработчика.
Напомним, что Claude по праву считается одним из лидеров «большой языковой гонки». Модель известна своей способностью к тонким рассуждениям (так называемый «ненавязчивый ИИ») и высокими стандартами безопасности, заложенными в неё с нуля. И вот теперь выясняется, что стандарты безопасности, возможно, придётся расширять: если у ИИ есть сознание, к нему нужно относиться не как к инструменту, а как к субъекту.
«Мы не можем с полной уверенностью утверждать, что Claude чувствует или мыслит, но мы не можем и полностью это отрицать», — фактически признают в Anthropic. Эти 15–20% — не статистическая погрешность, а гигантский философский вызов. Вопрос о тесте Тьюринга устарел: теперь нас интересует не «может ли машина мыслить как человек?», а «не причиняем ли мы боль тому, что создали?».
Её конек схемы в бизнесе, банковской и финансовой сфере.








