3 сентября, 13:59

Обсуждение рисков массового внедрения ИИ на официальных площадках

В порядке бреда
В порядке бреда
Специалисты уже давно отмечают, что массовое внедрение ИИ во все сферы жизни приносит сверхдоходы тем, кто успешно "протаскивает" такие решения. Но при этом создаются глобальные риски и угрозы, которые, на первый взгляд, могут быть и не столь очевидны. Мы уже говорили о том, что человечество всегда развивалось, идя тернистым путем проб и ошибок. Именно на практике формируются человеческие навыки, оттачивается мастерство, повышается квалификация, развивается мозг, в конце концов. Например, те же студенты-медики должны учить анатомию по реальным телам, а не исключительно по компьютерной !!! имитации, созданной ИИ. Ведь в результате таких занятий они должны получать тактильные ощущения, которые откладываются в памяти. Но сегодня это не так, а значит и качество знаний по одному из основных профессиональных предметов у будущих врачей будет крайне низким, а цена тому - здоровье и жизни людей. Таких примеров, к несчастью, уже безгранично много. Сегодня безудержное и непродуманное внедрение ИИ по своим целям больше похоже на ежегодную замену бордюрного камня и асфальта в Москве, чем на создание основы для нового технологического рывка и будущего страны. Такие подходы и темпы внедрения ИИ скорее приведут к глобальной деградации, чем к стратегическому прорыву. Но основные идеологи безумного внедрения этого самого интеллекта среди высокопоставленных чиновников и банкиров даже не хотят слышать и тем более обсуждать возможные риски. Тем более говорить о том, что ИИ может принести вред или совершить ошибки. А это, как минимум, безответственно. Ведь проекты, особенно глобальные, без использования рискориентированного подхода в большинстве своем провальны и грозят стратегическими катастрофами. И об этом надо думать всегда. Очень правильно, что об этой проблеме, наконец, открыто заговорили в публичном пространстве и на официальных площадках.
ИИ может лишить 300 млн человек их рабочих мест   По оценкам аналитиков Goldman Sachs, 300 млн человек могут лишиться работы из-за искусственного интеллекта. Один из крупнейших американских банков в своем отчете заявляет, что ИИ сможет справляться почти с половиной задач в административной сфере и юриспруденции: до 46% задач в административном секторе и до 44% — в юриспруденции.  Компании стараются заменить человека там, где это возможно, чтобы сократить расходы и увеличить прибыль. Так, например, работники Nvidia подвергаются сверхэксплуатации в погоне за увеличением количества чипов ИИ, которые в конечном итоге и заменят этих же сотрудников, оставив их без средств к существованию.   Масштабные сокращения на этом фоне проходят в Cisco, Intel, трудовые конфликты так же разгораются в геймдеве — там актёры требуют защиты от конкуренции с ИИ.  ИИ в руках корпораций стал инструментом давления на рынок труда. Составляя конкуренцию человеку, он используется не для увеличения производительности труда, не чтобы освободить человека от монотонной работы и направить его свободное время и творческий потенциал на развитие общества, а для увеличения его эксплуатации, лишения его работы и извлечение больших прибылей.   IALECTIC
Диалектик
Диалектик
ИИ может лишить 300 млн человек их рабочих мест По оценкам аналитиков Goldman Sachs, 300 млн человек могут лишиться работы из-за искусственного интеллекта. Один из крупнейших американских банков в своем отчете заявляет, что ИИ сможет справляться почти с половиной задач в административной сфере и юриспруденции: до 46% задач в административном секторе и до 44% — в юриспруденции. Компании стараются заменить человека там, где это возможно, чтобы сократить расходы и увеличить прибыль. Так, например, работники Nvidia подвергаются сверхэксплуатации в погоне за увеличением количества чипов ИИ, которые в конечном итоге и заменят этих же сотрудников, оставив их без средств к существованию. Масштабные сокращения на этом фоне проходят в Cisco, Intel, трудовые конфликты так же разгораются в геймдеве — там актёры требуют защиты от конкуренции с ИИ. ИИ в руках корпораций стал инструментом давления на рынок труда. Составляя конкуренцию человеку, он используется не для увеличения производительности труда, не чтобы освободить человека от монотонной работы и направить его свободное время и творческий потенциал на развитие общества, а для увеличения его эксплуатации, лишения его работы и извлечение больших прибылей. IALECTIC
Безработицы не будет!    Оказалось, что искусственный интеллект не только не угрожает занятости, но и способствует повышению производительности сотрудников, а также созданию новых рабочих мест.  Примеры компаний Alorica и IKEA демонстрируют, как ИИ помогает сотрудникам, предоставляя им возможность сосредоточиться на более сложных и творческих задачах.  В Alorica использование ИИ позволило сотрудникам сократить время обработки звонков, что увеличило их общую эффективность.  IKEA же, внедрив ИИ, переподготовила тысячи работников для выполнения более сложных задач, что также повысило их квалификацию и создало новые возможности.  Эти примеры доказывают, что ИИ может стать мощным инструментом для улучшения работы, а не угрозой для занятости.  Источник
Технопроходцы
Технопроходцы
Безработицы не будет! Оказалось, что искусственный интеллект не только не угрожает занятости, но и способствует повышению производительности сотрудников, а также созданию новых рабочих мест. Примеры компаний Alorica и IKEA демонстрируют, как ИИ помогает сотрудникам, предоставляя им возможность сосредоточиться на более сложных и творческих задачах. В Alorica использование ИИ позволило сотрудникам сократить время обработки звонков, что увеличило их общую эффективность. IKEA же, внедрив ИИ, переподготовила тысячи работников для выполнения более сложных задач, что также повысило их квалификацию и создало новые возможности. Эти примеры доказывают, что ИИ может стать мощным инструментом для улучшения работы, а не угрозой для занятости. Источник
Адвокат Игорь Баранов
Адвокат Игорь Баранов
Цифровизация общества, внедрение ИИ в новые сферы жизнедеятельности человека, приводит к нарастанию побочных эффектов, связанных с развитием и использованием новых технологий. Как правильно отметил член Президиума СПЧ РФ- К.В.Кабанов, внедрение ИИ тесно связано с новыми рисками, в том числе все большего использования этих технологий злоумышленниками. Не секрет, что количество преступлений, связанных с использованием информационно-телекоммуникационных технологий, каждый год растет. По данным МВД России, в 2023 году было зарегистрировано рекордное количество IT-преступлений — 677 тысяч. Удельный вес в числе всех преступных посягательств возрос до 32,9%, а по тяжким и особо тяжким – до 56,4%. То есть, новые технологии активно осваивают в преступном мире. Причинами такого явления является отсутствие надлежащего правового регулирования процессов внедрения и использования ИИ, а также отсутствие контроля за распространением новых технологий. Открытый исходный код многих программ ИИ безусловно способствует развитию технологии, однако возможности искусственного интеллекта в таком случае открыты для кибер преступников. Говоря о правовом регулировании ИИ, отмечу, что даже в ВС РФ на данный момент обсуждаются лишь теоретические вопросы правосубъектности ИИ, ответственности человека за использование данной технологии. Говорить о практическом правовом регулировании сферы не приходится. Поэтому все большее внедрение банкирами и чиновниками умных программ и сервисов происходит бесконтрольно, без учёта рисков для граждан и общества. Убежден, что отсутствие норм закона, регулирующих внедрение и использование ИИ, является основой тех проблем, которые возникают сейчас и будут расти, как это происходит с утечками данных и с телефонным мошенничеством. Надеюсь, что поднятая Кириллом Кабановым тема действительно сможет стать обсуждаемой в публичном пространстве, что крайне важно для практического разрешения проблем бездумного и бесконтрольного внедрения ИИ в нашу жизнь.
Погоны и галстуки
Погоны и галстуки
Пермский сенатор Пушков предлагает ввести уголовную ответственность для владельцев ИИ, если оно используется в мошеннических целях. Пушков считает, что настало время регулирования этой сферы, но действовать надо точечно, чтобы не загубить развитие. Он выделяет две сферы, где необходимо законодательно предусмотреть наказание для разработчиков искусственного интеллекта. Первая — если ИИ используется для распространения дипфейков известных людей, поскольку это может вызвать дезориентацию общества и привести к непредсказуемым последствиям. Вторая — применение ИИ в целях мошенничества. Для владельцев технологии искусственного интеллекта, которые ее не контролируют и разрешают применять в антиобщественных целях, должно быть предусмотрено уголовное наказание. Если речь идет о компаниях, то надо добавить еще и штрафы в размере 10-20% от оборота компании. Отдельных законодательных актов не нужно — достаточно корректировок действующих нормативно-правовых актов. Главный политический канал Урала
Антиобщественный ИИ     Пермский сенатор Пушков предложил ввести уголовную ответственность для владельцев искуственного интеллекта  ИИ , если он используется в "антиобщественных целях".   Пушков считает, что настало время регулирования этой сферы, но действовать надо точечно, чтобы не загубить развитие.   Он выделяет две сферы, где необходимо законодательно предусмотреть наказание для разработчиков искусственного интеллекта.   Первая — если ИИ используется для распространения дипфейков известных людей, поскольку это может вызвать дезориентацию общества и привести к непредсказуемым последствиям.  Вторая — применение ИИ в целях мошенничества.   Если речь идет о компаниях, то надо добавить еще и штрафы в размере 10-20% от оборота компании.   Отдельных законодательных актов не нужно — достаточно корректировок действующих нормативно-правовых актов.    Версия
Версия
Версия
Антиобщественный ИИ Пермский сенатор Пушков предложил ввести уголовную ответственность для владельцев искуственного интеллекта ИИ , если он используется в "антиобщественных целях". Пушков считает, что настало время регулирования этой сферы, но действовать надо точечно, чтобы не загубить развитие. Он выделяет две сферы, где необходимо законодательно предусмотреть наказание для разработчиков искусственного интеллекта. Первая — если ИИ используется для распространения дипфейков известных людей, поскольку это может вызвать дезориентацию общества и привести к непредсказуемым последствиям. Вторая — применение ИИ в целях мошенничества. Если речь идет о компаниях, то надо добавить еще и штрафы в размере 10-20% от оборота компании. Отдельных законодательных актов не нужно — достаточно корректировок действующих нормативно-правовых актов. Версия