12 февраля, 07:19

Минобороны Тайваня вводит запрет на использование генеративного ИИ для военнослужащих

China army
Минобороны Тайваня запретило использование платформ генеративного искусственного интеллекта, включая DeepSeek, ChatGPT и Gemini В изданном военным ведомством приказе запрещается военнослужащим загружать потенциально конфиденциальную информацию в службы искусственного интеллекта в целях обеспечения безопасности данных. В директиве, выпущенной заместителем начальника Генерального штаба по связи, электронике и информации, подчеркивается, что платформы ИИ собирают и анализируют огромные объемы пользовательских данных, что создает риски для военной тайны, безопасности персональных данных и прав интеллектуальной собственности. В результате военнослужащим теперь запрещено загружать или публиковать военную информацию, персональные данные или секретный контент на платформах генеративного ИИ, таких как DeepSeek, ChatGPT и Gemini. Запрет также распространяется на системы искусственного интеллекта тайваньского производства, включая Trustworthy Artificial Intelligence Dialogue Engine TAIDE и Advanced NCSIST Interactive Language AI ANILA , разработанные Чуншаньским институтом науки и технологий для использования в военных целях. Кроме того, военнослужащим запрещено использовать инструменты ИИ для составления официальных документов из-за опасений по поводу дезинформации и неоднозначности выводимых данных. В приказе также содержалось предупреждение о том, что контент, созданный с помощью искусственного интеллекта, может содержать ошибки, и военнослужащим предписывалось тщательно проверять любую информацию, прежде чем использовать ее в справочных целях. Наконец, офицерам и рядовому составу строго запрещено использовать генеративные услуги ИИ для незаконной деятельности или действий, нарушающих общественную мораль. МО отметило, что будут приняты правовые меры против любого, чье неправомерное использование ИИ приведет к утечке национальных оборонных секретов или репутационному ущербу для военных.
На распутье.ру
Эксперты протестировали применение искусственного интеллекта для юридических задач и выявили серьезные ограничения. По данным Стэнфордского университета, ChatGPT ошибается в 69% случаев при ответах на правовые вопросы. За использование недостоверной информации от ИИ двух американских юристов уже оштрафовали на $5000. В российском правовом сообществе мнения разделились. Одним удается успешно решать отдельные задачи с помощью ИИ, другие отмечают критические проблемы — от устаревания данных до предвзятости алгоритмов.
Афиша Daily
Чат-боты с ИИ неточно пересказывают новости, выяснила Би-би-си. Сотрудники издания предоставили ChatGPT, Copilot, Gemini и Perplexity AI сто новостей с сайта Би-би-си, а затем задали им вопросы о публикациях. Полученные ответы содержали искажения. В 51% ответов ИИ нашли неточности, а в 19% — фактические ошибки. Больше новостей — в Daily News
ITsec NEWS
​ Фальшивые цитаты и искажённые факты: как ИИ разрушает доверие к новостям Бум генеративного ИИ породил новую угрозу для достоверной информации — искажённые факты, выдаваемые за истину. BBC News провела исследование , которое выявило значительные проблемы с точностью ответов популярных ИИ-ассистентов. В ходе тестирования ChatGPT, Perplexity, Microsoft Copilot и Google Gemini были заданы 100 вопросов с запросом использовать материалы BBC News. Результаты оказались тревожными: более половины ответов содержали ошибки, а в 20% случаев нейросети вводили пользователей в заблуждение, добавляя фактические неточности. Более 10% «цитат» из статей BBC были либо изменены, либо вообще не существовали. Основные проблемы — отсутствие различий между фактами и мнениями, смешение архивных и актуальных данных, а также тенденция к субъективным интерпретациям. Это приводит к «каше» из информации, которая искажает реальную картину событий. Например, Perplexity при ответе на вопрос о ближневосточном конфликте заявил, что Иран проявил «сдержанность», а действия Израиля были «агрессивными», хотя в оригинальных материалах BBC подобных формулировок не было. ChatGPT и Copilot ошибочно утверждали, что Риши Сунак и Никола Стерджен всё ещё занимают свои должности, а Gemini неверно интерпретировал рекомендации NHS по вейпингу. Компании-разработчики ИИ признают проблему, но решения пока нет. Apple уже приостановила функцию генерации заголовков новостей после того, как BBC обнаружила серьёзные ошибки. Так, одна из ИИ-версий новостей утверждала, что власти Лос-Анджелеса арестовали сами себя за мародёрство, хотя на самом деле речь шла о задержании грабителей. BBC призывает крупные технологические компании к сотрудничеству для поиска решений. Медиаиндустрия, разработчики ИИ и государственные регуляторы должны объединиться, чтобы предотвратить подрыв доверия к информации. В условиях глобальной нестабильности критически важно, чтобы люди получали достоверные новости, а не хаотичный поток искажённых данных. ITsec NEWS
БлоGнот
BBC провела исследование четырех ведущих AI-чатботов ChatGPT, Microsoft Copilot, Google Gemini и Perplexity AI на предмет точности пересказа новостей, и результаты оказались неутешительными. 51% всех ответов AI на вопросы о новостях содержали существенные проблемы, а 19% ответов с цитированием контента BBC включали фактические ошибки. Среди примеров — Gemini неверно утверждал, что NHS не рекомендует вейпинг как средство бросить курить, ChatGPT и Copilot считали Риши Сунака и Николу Стерджен все еще находящимися в должности после их ухода, а Perplexity неправильно цитировал BBC News в материале о Ближнем Востоке. Проблема с этим исследованием только в том, что оно исследованием не является. Журналисты взяли какое-то количество новостных запросов, снабдили их прямым указанием использовать в качестве источника BBC и начали искать проблемы в полученных ответах. Как легко догадаться даже по примерам, проблемы были связаны с тем, что ChatGPT не является поисковиком и, конечно, считал в декабре 2024 года, что Риши Сунак премьер-министр — в этой стране премьеры меняются чаще, чем выходят новые модели GPT. Конечно, это не имеет ничего общего с суммаризацией новостей — с тем же успехом можно обвинить все модели в незнании подкастов, раз ни одна модель так и не смогла перечислить всех ведущих Радио-Т. Но я эту новость достал потому, что она показывает характерное — строка запроса LLM успешно вытесняет в головах людей и журналистов поисковую строку поисковика. И, наверное, это правильно.
Кибербезопасность Z
Минобороны Тайваня запретило использование платформ генеративного искусственного интеллекта, включая DeepSeek, ChatGPT и Gemini В изданном военным ведомством приказе запрещается военнослужащим загружать потенциально конфиденциальную информацию в службы искусственного интеллекта в целях обеспечения безопасности данных. В директиве, выпущенной заместителем начальника Генерального штаба по связи, электронике и информации, подчеркивается, что платформы ИИ собирают и анализируют огромные объемы пользовательских данных, что создает риски для военной тайны, безопасности персональных данных и прав интеллектуальной собственности. В результате военнослужащим теперь запрещено загружать или публиковать военную информацию, персональные данные или секретный контент на платформах генеративного ИИ, таких как DeepSeek, ChatGPT и Gemini. Запрет также распространяется на системы искусственного интеллекта тайваньского производства, включая Trustworthy Artificial Intelligence Dialogue Engine TAIDE и Advanced NCSIST Interactive Language AI ANILA , разработанные Чуншаньским институтом науки и технологий для использования в военных целях. Кроме того, военнослужащим запрещено использовать инструменты ИИ для составления официальных документов из-за опасений по поводу дезинформации и неоднозначности выводимых данных. В приказе также содержалось предупреждение о том, что контент, созданный с помощью искусственного интеллекта, может содержать ошибки, и военнослужащим предписывалось тщательно проверять любую информацию, прежде чем использовать ее в справочных целях. Наконец, офицерам и рядовому составу строго запрещено использовать генеративные услуги ИИ для незаконной деятельности или действий, нарушающих общественную мораль. МО отметило, что будут приняты правовые меры против любого, чье неправомерное использование ИИ приведет к утечке национальных оборонных секретов или репутационному ущербу для военных.
Лентач
Чат-боты с ИИ не могут точно пересказывать новостные сюжеты. Исследование провело Би-би-си – они показали 100 своих новостей популярным чат-ботам ChatGPT, Copilot, Gemini и Perplexity AI и попросили их ответить на несколько вопросов. В итоге 51% ответов ИИ содержали неточности, а в 19% были допущены фактические ошибки в утверждениях, числах или датах А что ещё случилось?
#Хроники_ебанария
Эксперты протестировали применение искусственного интеллекта для юридических задач и выявили серьезные ограничения. По данным Стэнфордского университета, ChatGPT ошибается в 69% случаев при ответах на правовые вопросы. За использование недостоверной информации от ИИ двух американских юристов уже оштрафовали на $5000. В российском правовом сообществе мнения разделились. Одним удается успешно решать отдельные задачи с помощью ИИ, другие отмечают критические проблемы — от устаревания данных до предвзятости алгоритмов.
Aslanov PR
Искажение новостей ИИ-чатботами: результаты исследования BBC Недавнее исследование BBC выявило значительные проблемы с точностью у ИИ-чатботов, таких как ChatGPT, Google Gemini, Microsoft Copilot и Perplexity, при подготовке саммари новостных статей. В ходе анализа 100 новостных материалов BBC было обнаружено, что более половины созданных ИИ резюме содержали существенные ошибки. В частности, 19% ответов включали неверные утверждения, а 13% — искаженные или неточные цитаты. Особенно выделился Gemini, у которого 46% результатов имели проблемы с точностью. Так что не все так просто. И если готовите обзор новостей при помощи нейросети, не забывайте проверять результат
Медиастанция
Сотрудники BBC проверили четыре ведущих чат-бота с искусственным интеллектом и заявили, что нейросети неточно обобщают новостные сюжеты. Речь о ChatGPT от OpenAI, Copilot от Microsoft, Gemini от Google и Perplexity. С одной стороны, основания для подобных выводов есть. Нейронки часто действительно грешат неточностями или непониманием контекста. С другой, учитываю репутацию и «объективность» британской новостной службы, это может быть просто попытка замедлить вытеснение живых журналистов из новостной сферы, а также сохранить бизнес и определенную монополию на информацию.