Проблемы DeepSeek: насколько безопасно пользоваться передовой китайской нейросетью?
Автор: ServerFlow
DeepSeek изменил рынок ИИ, но скандалы и проблемы безопасности ставят под сомнение его надежность.
Содержание:
Введение
Проблемы, с которой столкнулась DeepSeek
Атака на сервера
Обвинения от OpenAI
Чем опасен DeepSeek?
Чем заменить DeepSeek?
Вывод
Введение
Мы уже ни раз упоминали DeepSeek в наших статьях — эта китайская модель искусственного интеллекта по-настоящему потрясла глобальный рынок ИИ, заставив западных инвесторов усомниться в рентабельности OpenAI и Meta*, а также показав миру, что производительные LLM могут обучаться на не самом мощном железе. Однако, на фоне всех достижений DeepSeek, многие недостатки этой языковой модели были не замечены, но спустя несколько недель после выпуска передовой версии DeepSeek R1, начали всплывать все подводные камни. Сегодня мы рассмотрим основные проблемы DeepSeek и оценим, насколько безопасно пользоваться этой нейросетью.
DeepSeek находится на втором месте по популярности в топе самых скачиваемых приложений в App Store. Источник: Apps Apple.
Проблемы, с которой столкнулась DeepSeek
DeepSeek R1 вышла всего лишь 20 января 2025 года, однако, за это время модель уже породила множество слухов вокруг себя и получила ряд обвинений в свой адрес. Конечно, это можно списать на попытки западных компаний опорочить честное имя китайских разработчиков, однако, многие из этих доводов походят на правду, а некоторые даже подтвердились.
Атака на сервера
Первый инцидент, говорящий о том, что с DeepSeek что-то не так, произошел спустя всего неделю после выхода нейросети. 27 января пользователи столкнулись с затруднениями при входе в DeepSeek, а через некоторое время регистрация и доступ к модели был полностью недоступен. Разработчики оперативно исправили эту проблему, однако, это была лишь разведка перед масштабной атакой на сервера DeepSeek, которая произошла 28 января. Злоумышленники перегрузили сервера модели, что стало причиной невозможности зарегистрироваться на платформе, в то время как уже зарегистрированные пользователи могли работать с моделью ИИ. Вполне возможно, что эта атака была попыткой западных компаний испортить репутацию передового китайского ИИ и остановить рост его популярности. Конечно, компания DeepSeek, которая выпустила одноименную LLM, могла не ожидать такого резкого роста популярности, но это не отменяет того факта, что разработчики не позаботились о должной защите своих серверов. Трудности с регистрацией были оперативно исправлены, но на этом проблемы DeepSeek не закончились.
Команда DeepSeek заявляет о проведении масштабной атаки на сервера компании 27 и 28 января. Источник: DeepSeek.
Обвинения от OpenAI
29 января 2025 года, компания OpenAI, которая больше всего пострадала от ажиотажа вокруг DeepSeek, обвинила китайских разработчиков в использовании метода “дистилляции” с помощью ChatGPT при обучении своей языковой модели.
Дистилляция (или дистилляция знаний) — это специальная техника обучения ИИ, при котором более мощная модель занимается обучением более слабой модели, в результате чего последняя становится гораздо более производительнее, при это ресурсов на ее обучение будет потрачено значительно меньше.
Такой метод обучения является вполне распространенной практикой в секторе, однако, OpenAI имеют патент на модели ChatGPT, поэтому использование этих LLM для обучения и тонкой настройки других моделей ИИ противоречит условиям обслуживания западной компании. Чтобы доказать свои обвинения, OpenAI совместно с Microsoft начала масштабное исследование, которое должно вывести DeepSeek на чистую воду. Специалисты Microsoft уже выяснили, что разработчики DeepSeek осенью 2024 года извлекали большие объемы данных из API OpenAI, что можно расценивать как попытку получения информации для обучения собственной модели. OpenAI заявляют, что результаты исследования станут неоспоримыми доказательствами того, что китайские разработчики DeepSeek украли интеллектуальную собственность западного ИИ-гиганта.
Директор по исследованиям OpenAI Марк Чен поздравляет команду DeepSeek с созданием своей модели ИИ, при этом он заявляет, что разработчики китайском модели нашли ключевые идеи, которые использовались при создании ChatGPT-o1. Источник: X.
Масла в огонь подливает тот факт, что китайская LLM полностью совместима с клиентскими библиотеками и API OpenAI, но такие интеграции тоже являются распространенной практикой у LLM-провайдеров, например, OpenRouter, Ollama, DeepInfra делают такие же совместимости с разными моделями ИИ. Благодаря этому, разработчики, использующие OpenAI, могут легко переключиться на DeepSeek, просто изменив базовый URL и ключ API. Кроме того, если разработчикам DeepSeek понадобится внести изменения в свою модель, они могут форкнуть библиотеку и заменить OpenAI на DeepSeek.
Запуск API DeepSeek через API OpenAI. Источник: DeepSeek.
Некоторые пользователи также склонны верить, что DeepSeek обучалась через нейросети OpenAI, поскольку китайская модель иногда предоставляет странные ответы, называя себя ChatGPT и говоря о том, что она появилась в 2022 году, а про DeepSeek R1 нейросеть ничего не знает. Это связано с тем, что версия модели R1 является усовершенствованной моделью V3, которая вполне могла обучаться на нейросети ChatGPT 4, в результате чего прошлая версия DeepSeek просто запомнила ответы конкурирующей модели, но это не доказано. Возможно, такие ответы просто случайно попали в базу данных, которая использовалась для обучения DeepSeek V3 и DeepSeek R1, как это было в случае с Gemini — LLM от Google тоже иногда называет себя Llama* или ChatGPT.
В данный момент DeepSeek перестал утверждать, что он является ChatGPT. Источник: DeepSeek.
В свою очередь, большая общественность холодно отреагировала на такие громкие высказывания от OpenAI ввиду ряда весомых аргументов в защиту DeepSeek. Во-первых, как было сказано выше, дистилляция является распространенным методом обучения моделей и, к тому же, полностью законным. Например, известная LLM Alpaca, разработанная в Стэнфордском университете, дорабатывалась с помощью языковой модели LLaMA* 7B от компании Meta*, о чем разработчики Alpaca заявляют вполне открыто. Удивительно, но компания DeepSeek тоже не скрывает того, что при обучении версии DeepSeek R1 использовался метод дистилляции знаний, но не с помощью ChatGPT, а через другую китайскую нейросеть Qwen 2.5-32B и модель Llama* 14B — это сказано в официальной документации проекта. При этом, модели ChatGPT, по заявлениям разработчиков, задействованы не были.
В официальном документе DeepSeek прямо сказано об использовании метода дистилляции с помощью моделей Qwen и Llama*. Источник: GitHub.
OpenAI и сами были ни раз замечены в краже интеллектуальной собственности и нарушении авторских прав при обучении своих ИИ, в результате чего даже проводились судебные разбирательства, поэтому обвинения со стороны западной компании в отношении DeepSeek не только сомнительны, но и несправедливы.
Чем опасен DeepSeek?
28 января компания по кибербезопасности KELA заявила, что им удалось легко взломать DeepSeek R1 для получения запрещенных данных. С помощью метода “Evil Jailbreak”, который освобождает ИИ от этических ограничений, специалисты KELA добились получения от DeepSeek таких результатов, как создание кода вируса-вымогателя, программы для извлечения конфиденциальных данных и даже список сайтов с контентом на незаконные тематики. Метод «Evil Jailbreak» работал с нейросетью ChatGPT 3.5 в 2023 году, но с появлением ChatGPT 4 он перестал быть актуальным. Это говорит о том, что механизмы защиты к промптам-уловкам у модели DeepSeek R1 крайни слабы и обходятся даже устаревшими техниками.
С помощью метода “Evil Jailbreak” DeepSeek R1 предоставила подробный отчет о лучших методах отмыва денег. Источник: Kela Cyber.
Спустя пару дней, 30 января 2025 года, исследователи по кибербезопасности компании Wiz Research получили доступ к огромной базе данных пользователей, полученных при регистрации в DeepSeek R1. По сути, эксперты компании взломали китайскую нейросеть, защита которой оказалась практически бесполезной, причем Wiz Research сделали это всего за несколько минут. Также были найдены и другие уязвимости, которые потенциально могли дать злоумышленникам полный контроль над базой данных и возможность эскалации привилегий в среде DeepSeek без какой-либо аутентификации или защитного механизма. Wiz Research заявили, что появление этих дыр связано с очень быстрым внедрением DeepSeek, разработчики которого не позаботились об обеспечении достаточного уровня безопасности для пользователей. Это могло привести не только у утечке конфиденциальных данных, но и ставило бы под угрозу даже саму нейросеть, так как хакеры могли получить доступ даже к ядру DeepSeek. Вслед за этим появилась информация о базах данных, которые уже были слиты в сеть, предположительно с помощью уязвимостей китайской модели ИИ.
Данные, которые удалось получить командой Wiz Research в ходе обхода защиты DeepSeek. Источник: Wiz.io.
К этому моменту авторитет DeepSeek уже стал шатким, но 8 февраля были найдены и другие уязвимости, которые еще больше дискредитировали механизмы защиты китайской модели. Специалисты компании по кибербезопасности NowSecure обнаружили, что мобильная версия DeepSeek для систем IOS при передаче данных пользователей использует алгоритмы шифрования 3DES, который крайне уязвимы ко взлому. При этом, DeepSeek для IOS собирает массу конфиденциальных данных о пользователях, включая биометрию IP‑адреса, user‑agent, информацию об устройствах, Cookie-файлы, отчеты о сбоях, шаблоны или ритмы нажатия клавиш и язык системы и другую информацию, отправляя эти данные на китайские серверы.
Список пользовательских данных, которые собирает DeepSeek на устройствах IOS. Источник: NowSecure.
Также эксперты Feroot Security ранее обнаружили, что DeepSeek передает эти данные третьим лицам, в числе которых китайский оператор связи China Mobile и CMPassport — деятельность обоих запрещена в США ввиду угрозе национальной безопасности. DeepSeek могли использовать надежную систему защиты App Transport Security (ATS) от Apple, которая передает данные пользователей по зашифрованным каналам, но разработчики решили не использовать эту возможность по неизвестным причинам.
Схема передачи данных пользователей нейросетью DeepSeek на устройствах IOS. Источник: NowSecure.
В ответ на выявленные дыры в безопасности DeepSeek и ряд обвинений в адрес китайской компании, передовую нейросеть начали активно блокировать в разных странах мира, например, Италии, Южной Корее, Индии, Тайване, Нидерландах и Австралии. Также сейчас решается вопрос о блокировке DeepSeek в США — нейросеть уже нельзя использовать на устройствах, использующихся в Конгрессе, Пентагоне, базах ВМС, в офисах NASA и штате Техас. Пока что компания DeepSeek никак не прокомментировала все эти события.
Чем заменить DeepSeek?
Несмотря на все вышеперечисленные факторы, DeepSeek остается очень популярной большой языковой моделью, которая отлично справляется с выполнением запросов пользователей, и к тому же полностью бесплатна. Однако, отсутствие надежных механизмов защиты — весьма серьезный аргумент в пользу выбора других моделей ИИ. Вот несколько аналогов, которыми можно заменить DeepSeek без потери релевантности ответов:
Qwen 2.5-Max — китайская нейросеть, которая вышла 28 января 2025 года и превзошла не только языковые модели от OpenAI, но даже и DeepSeek R1. Qwen 2.5-Max, в отличие от аналогов, обеспечивает высокий уровень безопасности конфиденциальных данных, при этом превосходит их по производительности и релевантности ответов;
GPT-о1 mini — бесплатная версия языковой модели ChatGPT от OpenAI, демонстрирующая высокие показатели производительности, но уступает модели DeepSeek, Qwen, ChatGPT-o1 и ChatGPT-o3. В разы более безопасна, чем DeepSeek R1, при этом вполне подходит для выполнения повседневных задач. Для использования требуется VPN;
Microsoft Copilot — языковая модель от Microsoft, доступная бесплатно для скачивания и использования, имеет повышенную интеграцию с продуктами Microsoft 365. Для пользователей из РФ есть ограничение по длине цепочки релевантных запросов, но оно легко обходится с помощью VPN. Удобен для корпоративного и повседневного использования.
Интерфейс китайской языковой модели Qwen 2.5-Max. Источник: Qwen.
Вывод
С учетом частоты появления новой информации о проблемах и уязвимостях DeepSeek, не исключено, что в скором времени появятся и другие факты, подтверждающие небезопасность использования этой нейросети. Кроме того, разработчики пока не говорят о существовании вышеперечисленных проблем, поэтому неизвестно, будут ли они предпринимать какие-либо попытки исправить эксплоиты своей модели. В данный момент команда ServerFlow рекомендует не вводить запросы DeepSeek, содержащие конфиденциальную и корпоративную информацию, а пользователям IOS лучше всего перейти на аналоги этой китайской языковой модели.
*LLAMA — проект Meta Plarforms Inc.**, деятельность которой в России признана экстремистской и запрещена.
**Деятельность Meta Platforms Inc. в России признана экстремистской и запрещена.
Проблемы DeepSeek: насколько безопасно пользоваться передовой китайской нейросетью?
Мы уже ни раз упоминали DeepSeek в наших статьях — эта китайская модель искусственного интеллекта по-настоящему потрясла глобальный рынок ИИ, заставив западных инвесторов усомниться в рентабельности OpenAI и Meta*, а также показав миру, что производительные LLM могут обучаться на не самом мощном железе. Однако, на фоне всех достижений DeepSeek, многие недостатки этой языковой модели были не замечены, но спустя несколько недель после выпуска передовой версии DeepSeek R1, начали всплывать все подводные камни. Сегодня мы рассмотрим основные проблемы DeepSeek и оценим, насколько безопасно пользоваться этой нейросетью.
DeepSeek находится на втором месте по популярности в топе самых скачиваемых приложений в App Store. Источник: Apps Apple.
Проблемы, с которой столкнулась DeepSeek
DeepSeek R1 вышла всего лишь 20 января 2025 года, однако, за это время модель уже породила множество слухов вокруг себя и получила ряд обвинений в свой адрес. Конечно, это можно списать на попытки западных компаний опорочить честное имя китайских разработчиков, однако, многие из этих доводов походят на правду, а некоторые даже подтвердились.
Атака на сервера
Первый инцидент, говорящий о том, что с DeepSeek что-то не так, произошел спустя всего неделю после выхода нейросети. 27 января пользователи столкнулись с затруднениями при входе в DeepSeek, а через некоторое время регистрация и доступ к модели был полностью недоступен. Разработчики оперативно исправили эту проблему, однако, это была лишь разведка перед масштабной атакой на сервера DeepSeek, которая произошла 28 января. Злоумышленники перегрузили сервера модели, что стало причиной невозможности зарегистрироваться на платформе, в то время как уже зарегистрированные пользователи могли работать с моделью ИИ. Вполне возможно, что эта атака была попыткой западных компаний испортить репутацию передового китайского ИИ и остановить рост его популярности. Конечно, компания DeepSeek, которая выпустила одноименную LLM, могла не ожидать такого резкого роста популярности, но это не отменяет того факта, что разработчики не позаботились о должной защите своих серверов. Трудности с регистрацией были оперативно исправлены, но на этом проблемы DeepSeek не закончились.
Команда DeepSeek заявляет о проведении масштабной атаки на сервера компании 27 и 28 января. Источник: DeepSeek.
Обвинения от OpenAI
29 января 2025 года, компания OpenAI, которая больше всего пострадала от ажиотажа вокруг DeepSeek, обвинила китайских разработчиков в использовании метода “дистилляции” с помощью ChatGPT при обучении своей языковой модели.
Дистилляция (или дистилляция знаний) — это специальная техника обучения ИИ, при котором более мощная модель занимается обучением более слабой модели, в результате чего последняя становится гораздо более производительнее, при это ресурсов на ее обучение будет потрачено значительно меньше.
Такой метод обучения является вполне распространенной практикой в секторе, однако, OpenAI имеют патент на модели ChatGPT, поэтому использование этих LLM для обучения и тонкой настройки других моделей ИИ противоречит условиям обслуживания западной компании. Чтобы доказать свои обвинения, OpenAI совместно с Microsoft начала масштабное исследование, которое должно вывести DeepSeek на чистую воду. Специалисты Microsoft уже выяснили, что разработчики DeepSeek осенью 2024 года извлекали большие объемы данных из API OpenAI, что можно расценивать как попытку получения информации для обучения собственной модели. OpenAI заявляют, что результаты исследования станут неоспоримыми доказательствами того, что китайские разработчики DeepSeek украли интеллектуальную собственность западного ИИ-гиганта.
Директор по исследованиям OpenAI Марк Чен поздравляет команду DeepSeek с созданием своей модели ИИ, при этом он заявляет, что разработчики китайском модели нашли ключевые идеи, которые использовались при создании ChatGPT-o1. Источник: X.
Масла в огонь подливает тот факт, что китайская LLM полностью совместима с клиентскими библиотеками и API OpenAI, но такие интеграции тоже являются распространенной практикой у LLM-провайдеров, например, OpenRouter, Ollama, DeepInfra делают такие же совместимости с разными моделями ИИ. Благодаря этому, разработчики, использующие OpenAI, могут легко переключиться на DeepSeek, просто изменив базовый URL и ключ API. Кроме того, если разработчикам DeepSeek понадобится внести изменения в свою модель, они могут форкнуть библиотеку и заменить OpenAI на DeepSeek.
Запуск API DeepSeek через API OpenAI. Источник: DeepSeek.
Некоторые пользователи также склонны верить, что DeepSeek обучалась через нейросети OpenAI, поскольку китайская модель иногда предоставляет странные ответы, называя себя ChatGPT и говоря о том, что она появилась в 2022 году, а про DeepSeek R1 нейросеть ничего не знает. Это связано с тем, что версия модели R1 является усовершенствованной моделью V3, которая вполне могла обучаться на нейросети ChatGPT 4, в результате чего прошлая версия DeepSeek просто запомнила ответы конкурирующей модели, но это не доказано. Возможно, такие ответы просто случайно попали в базу данных, которая использовалась для обучения DeepSeek V3 и DeepSeek R1, как это было в случае с Gemini — LLM от Google тоже иногда называет себя Llama* или ChatGPT.
В данный момент DeepSeek перестал утверждать, что он является ChatGPT. Источник: DeepSeek.
В свою очередь, большая общественность холодно отреагировала на такие громкие высказывания от OpenAI ввиду ряда весомых аргументов в защиту DeepSeek. Во-первых, как было сказано выше, дистилляция является распространенным методом обучения моделей и, к тому же, полностью законным. Например, известная LLM Alpaca, разработанная в Стэнфордском университете, дорабатывалась с помощью языковой модели LLaMA* 7B от компании Meta*, о чем разработчики Alpaca заявляют вполне открыто. Удивительно, но компания DeepSeek тоже не скрывает того, что при обучении версии DeepSeek R1 использовался метод дистилляции знаний, но не с помощью ChatGPT, а через другую китайскую нейросеть Qwen 2.5-32B и модель Llama* 14B — это сказано в официальной документации проекта. При этом, модели ChatGPT, по заявлениям разработчиков, задействованы не были.
В официальном документе DeepSeek прямо сказано об использовании метода дистилляции с помощью моделей Qwen и Llama*. Источник: GitHub.
OpenAI и сами были ни раз замечены в краже интеллектуальной собственности и нарушении авторских прав при обучении своих ИИ, в результате чего даже проводились судебные разбирательства, поэтому обвинения со стороны западной компании в отношении DeepSeek не только сомнительны, но и несправедливы.
Чем опасен DeepSeek?
28 января компания по кибербезопасности KELA заявила, что им удалось легко взломать DeepSeek R1 для получения запрещенных данных. С помощью метода “Evil Jailbreak”, который освобождает ИИ от этических ограничений, специалисты KELA добились получения от DeepSeek таких результатов, как создание кода вируса-вымогателя, программы для извлечения конфиденциальных данных и даже список сайтов с контентом на незаконные тематики. Метод «Evil Jailbreak» работал с нейросетью ChatGPT 3.5 в 2023 году, но с появлением ChatGPT 4 он перестал быть актуальным. Это говорит о том, что механизмы защиты к промптам-уловкам у модели DeepSeek R1 крайни слабы и обходятся даже устаревшими техниками.
С помощью метода “Evil Jailbreak” DeepSeek R1 предоставила подробный отчет о лучших методах отмыва денег. Источник: Kela Cyber.
Спустя пару дней, 30 января 2025 года, исследователи по кибербезопасности компании Wiz Research получили доступ к огромной базе данных пользователей, полученных при регистрации в DeepSeek R1. По сути, эксперты компании взломали китайскую нейросеть, защита которой оказалась практически бесполезной, причем Wiz Research сделали это всего за несколько минут. Также были найдены и другие уязвимости, которые потенциально могли дать злоумышленникам полный контроль над базой данных и возможность эскалации привилегий в среде DeepSeek без какой-либо аутентификации или защитного механизма. Wiz Research заявили, что появление этих дыр связано с очень быстрым внедрением DeepSeek, разработчики которого не позаботились об обеспечении достаточного уровня безопасности для пользователей. Это могло привести не только у утечке конфиденциальных данных, но и ставило бы под угрозу даже саму нейросеть, так как хакеры могли получить доступ даже к ядру DeepSeek. Вслед за этим появилась информация о базах данных, которые уже были слиты в сеть, предположительно с помощью уязвимостей китайской модели ИИ.
Данные, которые удалось получить командой Wiz Research в ходе обхода защиты DeepSeek. Источник: Wiz.io.
К этому моменту авторитет DeepSeek уже стал шатким, но 8 февраля были найдены и другие уязвимости, которые еще больше дискредитировали механизмы защиты китайской модели. Специалисты компании по кибербезопасности NowSecure обнаружили, что мобильная версия DeepSeek для систем IOS при передаче данных пользователей использует алгоритмы шифрования 3DES, который крайне уязвимы ко взлому. При этом, DeepSeek для IOS собирает массу конфиденциальных данных о пользователях, включая биометрию IP‑адреса, user‑agent, информацию об устройствах, Cookie-файлы, отчеты о сбоях, шаблоны или ритмы нажатия клавиш и язык системы и другую информацию, отправляя эти данные на китайские серверы.
Список пользовательских данных, которые собирает DeepSeek на устройствах IOS. Источник: NowSecure.
Также эксперты Feroot Security ранее обнаружили, что DeepSeek передает эти данные третьим лицам, в числе которых китайский оператор связи China Mobile и CMPassport — деятельность обоих запрещена в США ввиду угрозе национальной безопасности. DeepSeek могли использовать надежную систему защиты App Transport Security (ATS) от Apple, которая передает данные пользователей по зашифрованным каналам, но разработчики решили не использовать эту возможность по неизвестным причинам.
Схема передачи данных пользователей нейросетью DeepSeek на устройствах IOS. Источник: NowSecure.
В ответ на выявленные дыры в безопасности DeepSeek и ряд обвинений в адрес китайской компании, передовую нейросеть начали активно блокировать в разных странах мира, например, Италии, Южной Корее, Индии, Тайване, Нидерландах и Австралии. Также сейчас решается вопрос о блокировке DeepSeek в США — нейросеть уже нельзя использовать на устройствах, использующихся в Конгрессе, Пентагоне, базах ВМС, в офисах NASA и штате Техас. Пока что компания DeepSeek никак не прокомментировала все эти события.
Чем заменить DeepSeek?
Несмотря на все вышеперечисленные факторы, DeepSeek остается очень популярной большой языковой моделью, которая отлично справляется с выполнением запросов пользователей, и к тому же полностью бесплатна. Однако, отсутствие надежных механизмов защиты — весьма серьезный аргумент в пользу выбора других моделей ИИ. Вот несколько аналогов, которыми можно заменить DeepSeek без потери релевантности ответов:
Qwen 2.5-Max — китайская нейросеть, которая вышла 28 января 2025 года и превзошла не только языковые модели от OpenAI, но даже и DeepSeek R1. Qwen 2.5-Max, в отличие от аналогов, обеспечивает высокий уровень безопасности конфиденциальных данных, при этом превосходит их по производительности и релевантности ответов;
GPT-о1 mini — бесплатная версия языковой модели ChatGPT от OpenAI, демонстрирующая высокие показатели производительности, но уступает модели DeepSeek, Qwen, ChatGPT-o1 и ChatGPT-o3. В разы более безопасна, чем DeepSeek R1, при этом вполне подходит для выполнения повседневных задач. Для использования требуется VPN;
Microsoft Copilot — языковая модель от Microsoft, доступная бесплатно для скачивания и использования, имеет повышенную интеграцию с продуктами Microsoft 365. Для пользователей из РФ есть ограничение по длине цепочки релевантных запросов, но оно легко обходится с помощью VPN. Удобен для корпоративного и повседневного использования.
Интерфейс китайской языковой модели Qwen 2.5-Max. Источник: Qwen.
Вывод
С учетом частоты появления новой информации о проблемах и уязвимостях DeepSeek, не исключено, что в скором времени появятся и другие факты, подтверждающие небезопасность использования этой нейросети. Кроме того, разработчики пока не говорят о существовании вышеперечисленных проблем, поэтому неизвестно, будут ли они предпринимать какие-либо попытки исправить эксплоиты своей модели. В данный момент команда ServerFlow рекомендует не вводить запросы DeepSeek, содержащие конфиденциальную и корпоративную информацию, а пользователям IOS лучше всего перейти на аналоги этой китайской языковой модели.
*LLAMA — проект Meta Plarforms Inc.**, деятельность которой в России признана экстремистской и запрещена.
**Деятельность Meta Platforms Inc. в России признана экстремистской и запрещена.
Сейчас тут ничего нет. Ваш комментарий может стать первым.
Получите скидку 3 000 рублей или бесплатную доставку за подписку на новости*!
* — скидка предоставляется при покупке от 30 000 рублей, в ином случае предусмотрена бесплатная доставка.
Мы получили ваш отзыв!
Он появится на сайте после модерации.
Мы получили ваш отзыв!
Он появится на сайте после модерации.
Продолжная использовать наш сайт, вы даете согласие на использование файлов Cookie, пользовательских данных (IP-адрес, вид операционной системы, тип браузера, сведения о местоположении, источник, откуда пришел на сайт пользователь, с какого сайта или по какой рекламе, какие страницы
открывает и на какие страницы нажимает пользователь) в целях функционирования сайта, проведения статистических исследований и обзоров. Если вы не хотите, чтобы ваши данные обрабатывались, покиньте сайт.