languageالعربية

Microsoft suspecte DeepSeek d'avoir volé des données à OpenAI

Microsoft suspecte DeepSeek d'avoir volé des données à OpenAI

Microsoft et OpenAI mènent actuellement une enquête pour déterminer si des données générées par la technologie d’OpenAI, via ChatGPT notamment, ont été obtenues de manière non autorisée par un groupe lié à la start-up chinoise DeepSeek.

Selon Bloomberg, les chercheurs en sécurité de Microsoft ont observé à l’automne 2024 des individus suspects qui pourraient être liés à DeepSeek, en train d’exfiltrer une grande quantité de données via l’API d’OpenAI.

L’API d’OpenAI permet aux développeurs de payer une licence pour intégrer les modèles d’intelligence artificielle propriétaires de la société américaine dans leurs propres applications. Microsoft, en tant que partenaire technologique majeur d’OpenAI et son plus grand investisseur, a signalé l’activité suspecte à l’entreprise.

Si ces actions se confirment, elles pourraient violer les conditions d’utilisation du créateur de ChatGPT et suggérer que le groupe lié à DeepSeek a cherché à contourner les restrictions imposées par OpenAI concernant l’accès aux données.

Récemment, DeepSeek a dévoilé un nouveau modèle d’IA open source nommé R1, qui se distingue par sa capacité à imiter le raisonnement humain. Ce modèle remet en question la position dominante d’OpenAI et des géants tels que Google et Meta sur le marché de l’IA.

DeepSeek a affirmé que R1 égalait, voire surpassait, les intelligences artificielles des groupes américains sur plusieurs critères, comme les mathématiques et la connaissance générale, le tout pour une fraction du coût. Cette annonce a provoqué une chute des actions des entreprises liées à l’IA, dont Microsoft, Nvidia, Oracle et Alphabet (Google).

David Sacks, nommé par Donald Trump comme « czar » chargé de l’intelligence artificielle et des cryptomonnaies, a déclaré pour sa part qu’il existait « des preuves substantielles » que DeepSeek s’était appuyé sur les modèles d’OpenAI pour développer sa propre technologie.

Selon lui, il s’agirait d’une technique appelée distillation, où un modèle d’IA utilise les données d’un autre modèle pour s’entraîner et développer des capacités similaires.

En réponse, un porte-parole d’OpenAI a indiqué que la société était consciente que des entreprises basées en Chine, et d’autres encore, tentent constamment de distiller les modèles des leaders américains de l’IA.

L’entreprise assure prendre des mesures pour protéger ses propriétés intellectuelles et travailler étroitement avec le gouvernement américain pour se défendre contre ces menaces.


(Kulturegeek)

share