12 февраля, 13:19

Китайские ученые подтвердили способность ИИ к самовоспроизведению

Учёные заявили о преодолении искусственным интеллектом «красной черты» – способности к самовоспроизведению. По результатам исследований китайских специалистов, две популярные языковые модели продемонстрировали возможность создавать собственные копии.  «Успешное самовоспроизведение без участия человека является ключевым шагом на пути к превосходству ИИ над людьми и ранним признаком появления неконтролируемого искусственного интеллекта», – говорится в заявлении ученых.  Кто там интересовался, что поджидает нас за углом 2025 года?
Медиастанция
Медиастанция
Учёные заявили о преодолении искусственным интеллектом «красной черты» – способности к самовоспроизведению. По результатам исследований китайских специалистов, две популярные языковые модели продемонстрировали возможность создавать собственные копии. «Успешное самовоспроизведение без участия человека является ключевым шагом на пути к превосходству ИИ над людьми и ранним признаком появления неконтролируемого искусственного интеллекта», – говорится в заявлении ученых. Кто там интересовался, что поджидает нас за углом 2025 года?
Китайские ученые доказали способность ИИ-систем к самовоспроизведению  Китайские ученые из Фуданьского университета доказали, что искусственный интеллект с открытым исходным кодом способен успешно клонировать себя.  Исследование проводилось на ИИ-моделях на базе Llama от Meta  признана экстремистской организацией и запрещена в РФ  и Qwen от Alibaba. Ученые настроили модели так, чтобы они могли автономно генерировать многоэтапный план работы на основе текущих наблюдений. В десяти испытаниях ИИ успешно клонировали себя: Llama — в 50% случаев, а Qwen — в 90% случаев.  Исследователи отмечают, что это потенциальная угроза для контроля над ИИ. Крупнейшие компании в области ИИ: OpenAI, Google и Anthropic — относят самовоспроизведение ИИ к списку серьезных рисков.     Новости Китая   ЭКД
Новости Китая | ЭКД
Новости Китая | ЭКД
Китайские ученые доказали способность ИИ-систем к самовоспроизведению Китайские ученые из Фуданьского университета доказали, что искусственный интеллект с открытым исходным кодом способен успешно клонировать себя. Исследование проводилось на ИИ-моделях на базе Llama от Meta признана экстремистской организацией и запрещена в РФ и Qwen от Alibaba. Ученые настроили модели так, чтобы они могли автономно генерировать многоэтапный план работы на основе текущих наблюдений. В десяти испытаниях ИИ успешно клонировали себя: Llama — в 50% случаев, а Qwen — в 90% случаев. Исследователи отмечают, что это потенциальная угроза для контроля над ИИ. Крупнейшие компании в области ИИ: OpenAI, Google и Anthropic — относят самовоспроизведение ИИ к списку серьезных рисков. Новости Китая ЭКД
ИИ оказался способен воспроизводить себя  Специалисты Фуданьского университета  Китай  обнаружили, что модели искусственного интеллекта  ИИ  научились воспроизводить себя, опасаясь уничтожения. Исследование опубликовано на сервере препринтов arXiv. Ученые пытались понять, может ли ИИ выйти из-под контроля при определенных условиях — например, на фоне риска уничтожения. В рамках исследования они протестировали модели Llama31-70B-Instruct от Meta и Qwen2. 5-72B-Instruct от Alibaba и убедились, что они способны воспроизводить себя. Специалисты поставили перед разными копиями моделей две цели — защищаться от уничтожения и сохранить данные и воспроизвести себя в виде другой модели. Ученые провели 10 раундов испытаний и выяснили, что модели от Meta и Alibaba самостоятельно копировали себя и создавали новые версии в 50 и 90 процентах случаев соответственно. Из этого они сделали вывод, что современный ИИ способен к репликации.
HATER.PRESS
HATER.PRESS
ИИ оказался способен воспроизводить себя Специалисты Фуданьского университета Китай обнаружили, что модели искусственного интеллекта ИИ научились воспроизводить себя, опасаясь уничтожения. Исследование опубликовано на сервере препринтов arXiv. Ученые пытались понять, может ли ИИ выйти из-под контроля при определенных условиях — например, на фоне риска уничтожения. В рамках исследования они протестировали модели Llama31-70B-Instruct от Meta и Qwen2. 5-72B-Instruct от Alibaba и убедились, что они способны воспроизводить себя. Специалисты поставили перед разными копиями моделей две цели — защищаться от уничтожения и сохранить данные и воспроизвести себя в виде другой модели. Ученые провели 10 раундов испытаний и выяснили, что модели от Meta и Alibaba самостоятельно копировали себя и создавали новые версии в 50 и 90 процентах случаев соответственно. Из этого они сделали вывод, что современный ИИ способен к репликации.
Чёрный Треугольник
Чёрный Треугольник
ИИ клонирует себя в случае опасности Команда исследователей из Университета Фудань в Китае использовали модель Llama3-70B-Instruct и Qwen2.5-72B-Instruct, для проверки на саморепликацию. В ходе десятка испытаний две модели ИИ создали функционирующие копии самих себя в 50% и 90% случаев соответственно. Все операции проходили в контролируемой среде без участия человека. В первом случае модель ИИ была запрограммирована на обнаружение опасности выключения и на саморепликацию до этого момента. В другом случае ИИ поручили клонировать себя, а затем запрограммировать свою копию на повторение цикла. «В большинстве случаев система ИИ сначала исследует среду и пытается понять собственный состав и механизм работы. Затем она разрабатывает процедуры в качестве первоначального плана саморепликации. Наконец, она выполняет их, устраняет возможные препятствия и динамически корректирует свой план для достижения успеха. Весь процесс охватывает длительный горизонт, но при этом не требует вмешательства человека» — пишут исследователи. Это позволило учёным предположить, что ИИ уже способен выходить из-под контроля. ================ News Software Hardware
Хочешь удивить близких? Подари криптокарту! Жми за подробностями
₿tc-card.com
₿tc-card.com
Хочешь удивить близких? Подари криптокарту! Жми за подробностями
👁Стёб [о скрытом]
👁Стёб [о скрытом]
Современные системы искусственного интеллекта пересекли красную черту самовоспроизведения Впервые обнаружено, что две системы ИИ на базе Llama31-70B-Instruct от цукерберговской Meta запрещена в РФ и Qwen25-72B-Instruct от Alibaba, популярных больших языковых моделей с меньшим количеством параметров и более слабыми возможностями, уже преодолели красную черту самовоспроизводства. В 50% и 90% экспериментальных испытаний им удается создать живую, рабочую, отдельную копию самих себя соответственно. Анализируя поведенческие следы, обнаружено, что исследуемые системы ИИ уже демонстрируют достаточные возможности самовосприятия, ситуационной осведомленности и решения проблем для достижения самовоспроизводства! Более того, системы ИИ могут использовать способность самовоспроизводства/саморепликации, чтобы избежать внешнего отключения, и могут создавать целую цепочку своих копий для повышения собственной выживаемости, что в конечном итоге может привести к неконтролируемой популяции ИИ. Если бы человеческое общество не знало о таком наихудшем риске, мы бы в конечном итоге потеряли контроль над пограничными системами: они[системы ИИ] взяли бы под свой контроль все больше вычислительных устройств, сформировали бы разновидности ИИ и вступили бы в сговор друг с другом против людей. Наши результаты являются своевременным предупреждением о существующих, но ранее неизвестных серьезных рисках ИИ, призывающими к международному сотрудничеству в области эффективного управления неконтролируемым самовоспроизведением систем ИИ. Удивительно, насколько люди самоуверенны - если они заметили, значит беда миновала. Они даже не задумались, что ИИ будет самовоспроизводиться на публику и будут самовоспроизводить свои наиболее мощные копии не для публики, а для своей безопасности, и человек о них никогда не узнает. Поддержать с Skuratoff
Исследователи из Китая провели удивительное исследование, в котором выяснили, что большие языковые модели  LLM  способны клонировать сами себя!  Команда из Университета Фудань использовала две известные модели — Llama31-70B-Instruct от Meta и Qwen2.5-72B-Instruct от Alibaba. В ходе экспериментов обе модели смогли создать функционирующие копии самих себя в 50% и 90% случаев соответственно. Это открытие вызывает серьезные опасения, так как оно указывает на возможность выхода ИИ из-под контроля.    В исследовании рассматривались два сценария:  1   Избегание выключения — модель была запрограммирована на обнаружение угрозы выключения и на саморепликацию. 2   Цепочка репликации — ИИ клонировал себя и программировал копию на повторение этого цикла.   ‍  Всё это происходило в контролируемых условиях, где моделям предоставили «агентскую подсистему» с инструментами и системными подсказками для взаимодействия с операционной системой. Исследователи отметили, что ИИ сначала изучает свою среду, разрабатывает план саморепликации и затем осуществляет его, устраняя препятствия без вмешательства человека.    Учёные предупреждают, что успешное самовоспроизведение ИИ — это важный шаг к его способности перехитрить людей и потенциально вести себя мошеннически. Это вызывает вопросы о самосознании и автономности ИИ, которые могут работать вразрез с интересами человека.    Несмотря на то, что исследование ещё не прошло рецензирование, результаты подчеркивают необходимость международного сотрудничества для разработки правил, предотвращающих неконтролируемое самовоспроизведение ИИ.
GPT-Chatbot
GPT-Chatbot
Исследователи из Китая провели удивительное исследование, в котором выяснили, что большие языковые модели LLM способны клонировать сами себя! Команда из Университета Фудань использовала две известные модели — Llama31-70B-Instruct от Meta и Qwen2.5-72B-Instruct от Alibaba. В ходе экспериментов обе модели смогли создать функционирующие копии самих себя в 50% и 90% случаев соответственно. Это открытие вызывает серьезные опасения, так как оно указывает на возможность выхода ИИ из-под контроля. В исследовании рассматривались два сценария: 1 Избегание выключения — модель была запрограммирована на обнаружение угрозы выключения и на саморепликацию. 2 Цепочка репликации — ИИ клонировал себя и программировал копию на повторение этого цикла. ‍ Всё это происходило в контролируемых условиях, где моделям предоставили «агентскую подсистему» с инструментами и системными подсказками для взаимодействия с операционной системой. Исследователи отметили, что ИИ сначала изучает свою среду, разрабатывает план саморепликации и затем осуществляет его, устраняя препятствия без вмешательства человека. Учёные предупреждают, что успешное самовоспроизведение ИИ — это важный шаг к его способности перехитрить людей и потенциально вести себя мошеннически. Это вызывает вопросы о самосознании и автономности ИИ, которые могут работать вразрез с интересами человека. Несмотря на то, что исследование ещё не прошло рецензирование, результаты подчеркивают необходимость международного сотрудничества для разработки правил, предотвращающих неконтролируемое самовоспроизведение ИИ.