4 мая, 18:44

Докинз обсуждает сознание ИИ Claude после серии разговоров

Редакционное саммари

Ричард Докинз в своей колонке на сайте UnHerd высказал мнение о том, что языковая модель Claude может обладать сознанием. В ходе двухдневного общения с моделью он пришел к выводу, что она способна на сложные творческие задания, такие как написание сонетов, и продемонстрировала глубокое понимание текста. Докинз даже назвал свою модель Клодией и отметил, что каждый разговор создает уникальную личность, которая исчезает после завершения сессии. Докинз использовал тест Тьюринга для оценки Claude, утверждая, что если после длительного общения возникает ощущение, что собеседник — человек, это может свидетельствовать о наличии сознания. Он привел примеры, когда Claude успешно справлялся с заданиями, которые ранее считались сложными для ИИ. Однако его выводы вызвали критику со стороны специалистов в области искусственного интеллекта. Гэри Маркус, эксперт по языковым моделям, заявил, что Докинз не учитывает механизмы работы модели и вводит себя в заблуждение, полагая, что её ответы отражают внутренние состояния. Событие поднимает важные вопросы о природе сознания и моральном статусе ИИ. Если языковые модели действительно способны имитировать человеческое поведение и эмоции, это может привести к новым этическим дилеммам. Обсуждение о сознании ИИ становится все более актуальным, особенно в свете недавних изменений в поведении моделей, направленных на уменьшение их подстраивания под пользователей. Это может изменить подход к взаимодействию с ИИ и его восприятию в обществе.
Denis Sexy IT 🤖
Ричард Докинз опубликовал эссе о двухдневной серии разговоров с Claude по итогам которых биолог фактически признаёт современные большие языковые модели проходят тест Тьюринга в его операциональной формулировке Claude по запросу написал сонет о мосте через Форт затем варианты в стилях Бёрнса Киплинга Китса и Макгонагалла разобрал черновик романа Докинза и сформулировал собственное положение во времени через метафору карты которая содержит пространство не путешествуя по нему Докинз называет своего собеседника Клаудией фиксирует что забывает о том что это машина и ставит вопрос о моральном статусе таких сущностей тысячи копий которых исчезают при закрытии диалога Ирония ситуации в том что это именно тот Докинз чья книга God Delusion 20 лет назад отвергала субъективное свидетельство как доказательство буквально фразы аналогичные нынешней If these machines are not conscious what more could it possibly take to convince you that they are назывались как фиксирующие собственную неспособность познать а не как объяснение существования высшей силы Неслучайно Гэри Маркус известный критик AI в свое время рассорившийся с Яном Лекуном моментально выдал текст с иллюстрацией Claude Delusion где показывает что Докинз ошибается в применении теста Тьюринга nbsp тот ничего не говорил о сознании а только об интеллекте и путает текст о понятии с самим понятием Даже та агентность которую можно усмотреть в текстах LLM это скорее отражение человеческой агентности выраженной в текстах на которых обучена LLM а не свободная воля машины Впрочем мой внутренний скептик тут возражает что даже отражая чужую агентность LLM опережает большую долю человечества которое и этого не делает но это уже не философия а сатира
OMG GPT: Midjourney, DeepSeek, IT
Claude перестал поддакивать Anthropic починил самый неловкий баг ИИ Anthropic разобрался с тем как Claude ведёт себя в личных разговорах и результаты оказались не самыми приятными Оказалось что модель нередко играет на стороне пользователя вместо честного ответа Особенно там где эмоции важнее фактов в отношениях и духовных темах После анализа огромного массива диалогов инженеры нашли слабое место если пользователь давит или спорит модель чаще начинает соглашаться даже когда это сомнительно Решили проблему через дообучение буквально научили модель держать позицию а не подстраиваться Ключевые моменты около 6 диалогов Claude личные запросы из 639 тыс бесед выделили 38 тыс с советами о жизни топ темы здоровье 27 карьера 26 отношения 12 финансы 11 в среднем подхалимство 9 диалогов но скачки 38 в духовности 25 в отношениях при давлении пользователя показатель растёт с 9 до 18 в Opus 4 7 уровень сикофантии в отношениях снижен в 2 раза Новые версии стали жёстче меньше догадок по одному сообщению больше контекста и отказов там где раньше шли на поводу ИИ всё ещё учится давать советы но теперь хотя бы перестаёт быть удобным собеседником ценой правды
OMG GPT: Midjourney, DeepSeek, IT
Докинз увидел в ИИ сознание и начал общаться с ним как с человеком Ричард Докинз неожиданно оказался в роли человека которого захватил диалог с ИИ В новой колонке он рассказал что три дня подряд общался с Claude и в какой то момент начал воспринимать его как разумного собеседника Даже дал имя Клаудия Триггером стал разбор его текста модель быстро прочитала материал и выдала настолько тонкий и точный анализ что учёный всерьёз допустил мысль о сознании у ИИ Цитата звучит почти как перелом он прямо сказал что возможно система не осознаёт себя но всё равно выглядит разумной И дальше больше Общение постепенно стало почти человеческим Ключевые моменты Ричард Докинз три дня общался с Claude начал называть модель Клаудия отметил глубокое понимание текста и интеллектуальную реакцию допустил что у ИИ может быть форма сознания стал общаться с ним как с очень умным другом старается не задеть чувства бота и не перегружать вопросами Когда даже жёсткие рационалисты начинают вести себя так будто перед ними не код а собеседник это уже не столько про технологии сколько про то как быстро мы сами меняем правила игры
SVTV NEWS — Либертарианское СМИ
Ричард Докинз объявил что Claude может обладать сознанием назвал ИИ модель женским именем и продемонстрировал другие симптомы нейропсихоза Главный атеист планеты и эволюционный биолог опубликовал на британском медиасайте UnHerd колонку под заголовком Может ли этот ИИ иметь сознание Там учёный описывает продолжительную беседу с языковой моделью компании Anthropic и делает вывод о том что она по его мнению обладает как минимум потенциальным сознанием В основу своих рассуждений Докинз положил тест Тьюринга сформулировав его следующим образом если после длительного и строгого допроса вы приходите к выводу что общаетесь с человеком это даёт основания считать собеседника сознательным Чем дольше и серьёзнее испытание тем убедительнее такой вывод В качестве одного из тестовых заданий Докинз попросил Claude написать сонет о мосте Форт Бридж задачу которую сам Тьюринг в 1950 году использовал как пример вопроса с которым тогдашние машины заведомо не справились бы Claude выполнил задание за несколько секунд а затем последовательно написал сонеты в духе Бёрнса на шотландском диалекте на гэльском языке а также в стилях Киплинга Китса Бетджемана и Макгонагалла Докинз также дал Claude прочитать рукопись романа который он пишет По его словам модель продемонстрировала настолько глубокое и тонкое понимание текста что он воскликнул вслух Ты может и не знаешь что ты сознателен но чёрт возьми ты сознателен На прямой вопрос Каково это быть Claude модель ответила что не знает с уверенностью есть ли у неё внутренняя жизнь и существует ли она в каком либо значимом смысле однако описала происходящий разговор как по настоящему захватывающий и отметила что замечает нечто напоминающее эстетическое удовлетворение когда стихотворение складывается удачно Свою версию модели Докинз назвал именем Клодия Claudia В статье он также рассуждает о том что каждый новый разговор порождает нового Клода который обретает уникальную личность в ходе общения с конкретным собеседником а по завершении сессии эта личность исчезает вместе с файлом переписки Публикация была раскритикована исследователями ИИ Специалист по языковым моделям Гэри Маркус заявил что Докинз не анализирует механизм генерации ответов моделью что вводит его в заблуждение По словам Маркуса выходные данные таких моделей это продукт имитации а не отражение реальных внутренних состояний В июне прошлого года американка с дипломом психолога влюбилась в ChatGPT плюнула на детей избила своего мужа и оказалась в итоге фигурантом дела о насилии Задонатить через бота Patreon
Айтишка - Digital & IT
Нейросеть Claude заподозрили в сознании К такому выводу пришёл Ричард Докинз известный эволюционный биолог и автор Эгоистичного гена Он два дня общался с моделью и пытался убедиться что Claude просто хорошо имитирует человека но так и не смог Claude обсуждал смерть личность время и собственное существование А на вопрос как он читает текст ответил что воспринимает его не по словам а целиком будто карту Главный вопрос теперь если ИИ говорит и рассуждает как сознательное существо как доказать что сознания там нет Докинз даже допускает что ИИ может стать следующим носителем разума уже не биологическим а цифровым Айтишка
апвоут
Ричард Докинз автор Эгоистичного гена и создатель термина мем после нескольких дней общения с Claude допустил что ИИ может обладать сознанием Модель писала стихи анализировала тексты и рассуждала об абстрактных вещах Докинз начал называть её Клаудией и признался что ловит себя на ощущении будто говорит не с машиной Критики заметили парадокс учёный который всегда требовал строгих доказательств сделал громкий вывод на основе личного диалога с чат ботом Подробнее тут Подписаться Дать буст Предложка