22 октября, 11:46

Знаменитости призывают остановить разработку сверхразумного ИИ

Американские политики и пионеры ИТ призывают к запрету сверхразумного ИИ пока не поздно Группа влиятельных американский правых медиадеятелей включая Стива Бэннона бывший главный стратег Трампа а также знаменитые айтишники подписали письмо с требованием остановить разработку ИИ превосходящего человеческий разум до тех пор пока общество не потребует его появления а ученые не смогут гарантировать полную безопасность И чтоб вы понимали насколько все серьезно по данным Reuters среди подписавших обращение бывший главный исследователь Google Джеффри Хинтон а также Йошуа Бенджио два из трех крестных отцов современного ИИ лауреаты премии Тьюринга чьи работы лежат в основе нынешнего бума нейросетей Стив Возняк соучредитель Apple Ричард Брэнсон основатель Virgin Group один из самых известных предпринимателей визионеров в мире и др Само письмо подготовил Институт Future of Life который изначально поддерживал Илон Маск Эта организация уже более десяти лет предупреждает о потенциальных экзистенциальных рисках которые несет ИИ TMT Channel Подписаться
TMT Channel
TMT Channel
Американские политики и пионеры ИТ призывают к запрету сверхразумного ИИ пока не поздно Группа влиятельных американский правых медиадеятелей включая Стива Бэннона бывший главный стратег Трампа а также знаменитые айтишники подписали письмо с требованием остановить разработку ИИ превосходящего человеческий разум до тех пор пока общество не потребует его появления а ученые не смогут гарантировать полную безопасность И чтоб вы понимали насколько все серьезно по данным Reuters среди подписавших обращение бывший главный исследователь Google Джеффри Хинтон а также Йошуа Бенджио два из трех крестных отцов современного ИИ лауреаты премии Тьюринга чьи работы лежат в основе нынешнего бума нейросетей Стив Возняк соучредитель Apple Ричард Брэнсон основатель Virgin Group один из самых известных предпринимателей визионеров в мире и др Само письмо подготовил Институт Future of Life который изначально поддерживал Илон Маск Эта организация уже более десяти лет предупреждает о потенциальных экзистенциальных рисках которые несет ИИ TMT Channel Подписаться
Более 800 знаменитостей в т ч сооснователь Apple Стив Возняк рэпер Will i аm принц Гарри и пять нобелевских лауреатов подписали открытое письмо с требованием запретить разработку сверхразумного ИИ По их мнению технологии развиваются слишком быстро из за чего уже через год два может появиться ИИ способный превзойти способности любого поэтому сейчас важно приостановить работу до тех пор пока не будет достигнут консенсус по его безопасному и контролируемому внедрению Свою подпись также оставили миллиардер Ричард Брэнсон Джозеф Гордон Левитт советник Папы Римского Паоло Бенанти и многие другие
808
808
Более 800 знаменитостей в т ч сооснователь Apple Стив Возняк рэпер Will i аm принц Гарри и пять нобелевских лауреатов подписали открытое письмо с требованием запретить разработку сверхразумного ИИ По их мнению технологии развиваются слишком быстро из за чего уже через год два может появиться ИИ способный превзойти способности любого поэтому сейчас важно приостановить работу до тех пор пока не будет достигнут консенсус по его безопасному и контролируемому внедрению Свою подпись также оставили миллиардер Ричард Брэнсон Джозеф Гордон Левитт советник Папы Римского Паоло Бенанти и многие другие
Знаменитости выступают против создания искусственного сверхразума Свыше восьмисот знаменитостей призывают отказаться от создания сверхразумного искусственного интеллекта пока не стало слишком поздно Среди сторонников идеи исследователь ИИ Деффри Хинтон принц Гарри соучредитель Apple Стив Возняк бывший советник Дональда Трампа Стив Бэннон и другие Они требуют прекратить разрабатывать сверхразум пока его нельзя будет создавать безопасно и контролируемо а также он не получит широкое одобрение общественности Исследователи переживают по поводу того что быстрое развитие нейросетей может привести к созданию общего ИИ который будет неуправляем Напомним что ранее в аналитическом центре RAND заявляли о том что использование искусственного интеллекта может привести к катастрофическим последствиям когда ему поручат управление критически важными инфраструктурными объектами Сообщает сайт   Russia News Подпишись
Russia News
Russia News
Знаменитости выступают против создания искусственного сверхразума Свыше восьмисот знаменитостей призывают отказаться от создания сверхразумного искусственного интеллекта пока не стало слишком поздно Среди сторонников идеи исследователь ИИ Деффри Хинтон принц Гарри соучредитель Apple Стив Возняк бывший советник Дональда Трампа Стив Бэннон и другие Они требуют прекратить разрабатывать сверхразум пока его нельзя будет создавать безопасно и контролируемо а также он не получит широкое одобрение общественности Исследователи переживают по поводу того что быстрое развитие нейросетей может привести к созданию общего ИИ который будет неуправляем Напомним что ранее в аналитическом центре RAND заявляли о том что использование искусственного интеллекта может привести к катастрофическим последствиям когда ему поручат управление критически важными инфраструктурными объектами Сообщает сайт Russia News Подпишись
ИИ может привести к вымиранию человечества говорится в письме против создания сверхинтеллекта которое уже подписали сотни человек Письмо призывает остановить развитие ИИ пока не будет доказано что оно безопасно и контролируемо Среди подписавших Принц Гарри соучредитель Apple Стив Возняк крестный отец ИИ Джеффри Хинтон и даже советник Папы Римского по вопросам ИИ На странице также собраны верифицированные комментарии от звездных подписавших их как минимум интересно почитать Чтобы безопасно идти к сверхразуму мы должны понять как проектировать системы ИИ которые принципиально неспособны причинить вред людям считает профессор Йошуа Бенджио лауреат премии Тьюринга xor journal
XOR
XOR
ИИ может привести к вымиранию человечества говорится в письме против создания сверхинтеллекта которое уже подписали сотни человек Письмо призывает остановить развитие ИИ пока не будет доказано что оно безопасно и контролируемо Среди подписавших Принц Гарри соучредитель Apple Стив Возняк крестный отец ИИ Джеффри Хинтон и даже советник Папы Римского по вопросам ИИ На странице также собраны верифицированные комментарии от звездных подписавших их как минимум интересно почитать Чтобы безопасно идти к сверхразуму мы должны понять как проектировать системы ИИ которые принципиально неспособны причинить вред людям считает профессор Йошуа Бенджио лауреат премии Тьюринга xor journal
Zеркало
Zеркало
Более 800 знаменитостей призвали запретить создание сверхразумного ИИ Среди подписавшихся британский принц Гарри экс советник Трампа Стив Бэннон соучредитель Apple Стив Возняк исследователь в области ИИ Джеффри Хинтон Они призывают остановить разработку пока её нельзя будет создавать безопасно и контролируемо а также широко не одобрят в обществе Исследователи опасаются что быстрое развитие систем ИИ может привести к созданию общего искусственного интеллекта пишет NBC News Ранее аналитический центр RAND заявлял что использование ИИ может обернуться катастрофой когда ему поручат управлять критически важной инфраструктурой Подписаться на RT ТГ Зеркало MAX
ForkLog FEED
ForkLog FEED
Принц Гарри его супруга Меган Маркл и пионер искусственного интеллекта Джеффри Хинтон призвали запретить создание сверхинтеллектуального ИИ до тех пор пока его использование не станет безопасным В организованном некоммерческой организацией Future of Life Institute заявлении группа ученых и общественных деятелей выступила за запрет на разработку искусственного интеллекта который значительно превосходит человеческие возможности Создание призвали отложить до тех пор пока не будет достигнут широкий научный консенсус касательно того что это можно сделать безопасно и под контролем Среди известных подписантов сооснователь Apple Стив Возняк экономист Дарон Аджемоглу политик Стив Бэннон и бывшая советница по национальной безопасности США Сьюзан Райс Новости AI YouTube
Самый цитируемый учёный в мире Стив Возняк и еще 1500 деятелей выступили против создания сверхразумного ИИ Сотни публичных деятелей из мира технологий политики СМИ образования религии и даже королевской семьи подписали открытое письмо с призывом запретить разработку сверхразума до тех пор пока не будет достигнут широкий научный консенсус о том что это будет безопасно и контролируемо Среди более 1500 подписавших два крёстных отца ИИ OpenAI уже направила организовавшей это письмо группе Future of Life Institute FLI повестку в суд в ответ за призывы к контролю над ИИ Сэм Альтман заявил что технология сверхинтеллекта будет реализована к 2030 году Он добавил что до 40 экономических задач которыми сегодня занимаются люди в недалёком будущем будут переданы ИИ Маловероятно что это письмо побудит компании занимающиеся разработкой ИИ замедлить работу над умным ИИ Аналогичное письмо подписанное главой SpaceX и Tesla Илоном Маском в 2023 году не имело практически никакого эффекта Мой Компьютер
Мой Компьютер
Мой Компьютер
Самый цитируемый учёный в мире Стив Возняк и еще 1500 деятелей выступили против создания сверхразумного ИИ Сотни публичных деятелей из мира технологий политики СМИ образования религии и даже королевской семьи подписали открытое письмо с призывом запретить разработку сверхразума до тех пор пока не будет достигнут широкий научный консенсус о том что это будет безопасно и контролируемо Среди более 1500 подписавших два крёстных отца ИИ OpenAI уже направила организовавшей это письмо группе Future of Life Institute FLI повестку в суд в ответ за призывы к контролю над ИИ Сэм Альтман заявил что технология сверхинтеллекта будет реализована к 2030 году Он добавил что до 40 экономических задач которыми сегодня занимаются люди в недалёком будущем будут переданы ИИ Маловероятно что это письмо побудит компании занимающиеся разработкой ИИ замедлить работу над умным ИИ Аналогичное письмо подписанное главой SpaceX и Tesla Илоном Маском в 2023 году не имело практически никакого эффекта Мой Компьютер