L'UM6P et STATION F s’allient pour favoriser l’innovation entre l’Europe et l’Afrique

L’Université Mohammed VI Polytechnique (UM6P) et STATION F annoncent un partenariat stratégique visant à stimuler l’innovation et à renforcer les liens entre l’Europe et l’Afrique. Baptisé NextAfrica, ce programme de six mois ambitionne d’accompagner et d’accélérer les start-ups internationales souhaitant se développer sur le marché africain, notamment dans les domaines de la Greentech, l’Agritech et la Healthtech, alignés sur la vision et l’expertise de l’UM6P.

Une synergie unique entre l’Europe et l’Afrique

Ce partenariat offre aux start-ups un cadre privilégié combinant mentorat, financement, accompagnement technique et accès aux marchés africains. Il s’appuie sur l’excellence scientifique et les infrastructures de l’UM6P, permettant aux entrepreneurs de bénéficier d’un savoir-faire local essentiel pour leur expansion en Afrique. Les start-ups pourront ainsi échanger avec les chercheurs et experts de l’université, qui leur offriront une compréhension approfondie des enjeux économiques et technologiques spécifiques au continent. Par ailleurs, leur intégration à STATION F, le plus grand campus de startups au monde, leur garantira une exposition à un écosystème dynamique et interconnecté, favorisant les synergies avec des investisseurs, partenaires et experts européens. Ce double ancrage permettra aux entrepreneurs de solidifier leur présence à la fois sur les marchés africains et européens.

Un programme d’accélération de référence

Chaque année, NextAfrica accompagnera une vingtaine de startups spécialisées en Greentech et Healthtech à travers un programme intensif de six mois. Celui-ci combinera une immersion au sein de STATION F à Paris, où elles bénéficieront d’un accès privilégié aux ressources du campus et à un réseau international d’entrepreneurs et d’investisseurs, ainsi que des résidences périodiques sur le campus de l’UM6P au Maroc. Cette approche leur permettra non seulement de développer leurs projets dans un environnement entrepreneurial de premier plan, mais aussi de tester et d’adapter leurs innovations aux réalités et besoins spécifiques du marché africain. Les candidatures pour rejoindre la première promotion sont d’ores et déjà ouvertes. Hicham El Habti, Président de l’UM6P, souligne : "Cette alliance avec STATION F reflète notre ambition de connecter les talents africains et européens dans un écosystème entrepreneurial de premier plan. En mettant en commun nos ressources, nous donnons aux startups les moyens d’adresser les défis technologiques, économiques et environnementaux de l’Afrique, tout en consolidant un pont d’innovation entre les deux continents." 

Une vision stratégique pour l’innovation africaine

Ce partenariat s’inscrit dans une dynamique plus large de renforcement des capacités d’innovation en Afrique, un continent qui présente des opportunités majeures, mais également des défis spécifiques nécessitant des solutions adaptées. En combinant l’expertise de STATION F en matière d’accélération et l’ancrage africain de l’UM6P, NextAfrica se positionne comme un levier stratégique pour les entrepreneurs souhaitant s’implanter durablement sur ces marchés. Roxanne Varza, Directrice de STATION F, conclut : "Nous sommes ravis d’accueillir l’UM6P à STATION F. Ce partenariat renforce notre engagement dans des secteurs clés comme la Greentech et la Healthtech, tout en approfondissant notre lien avec le Maroc, qui est déjà le troisième pays le mieux représenté à STATION F.". Lire plus >

Mot clé : IA -- publié le 14/02/2025 14:58:00


Mistral Small 3 : la réponse open source française optimisée pour la latence aux modèles GenAI propriétaires

En fin de semaine dernière, alors que tout le monde avait les yeux rivés sur DeepSeek et son modèle R1, Mistral AI, licorne française de la GenAI, a lancé plus discrètement Mistral Small 3. Publié sous la licence Apache 2.0, ce modèle de 24 milliards de paramètres optimisé pour la latence est "une excellente alternative open source aux modèles propriétaires opaques comme GPT4o-mini" selon elle. Avec Small 3, la licorne, démontre une fois de plus que pour être performant, un LLM ne requiert pas un nombre astronomique de paramètres. Le modèle se positionne comme une réponse aux besoins croissants d'efficacité en offrant un taux de traitement de 150 tokens par seconde, tout en affichant une précision de plus de 81 % sur le benchmark MMLU. Cette prouesse technique est rendue possible grâce à une architecture optimisée qui réduit le nombre de couches traditionnelles, diminuant ainsi le temps de passage avant (forward pass time, ou temps nécessaire à un modèle de réseau de neurones pour traiter une entrée et produise une sortie) sans compromettre la qualité des réponses. Ce choix architectural, qui en fait "actuellement le modèle le plus efficace de sa catégorie", permet à la version optimisée, Mistral Small 3 Instruct, de rivaliser avec des modèles bien plus imposants comme Llama 3.3 70B ou Qwen 32B, tout en garantissant une exécution rapide et efficace sur du matériel standard.

Des applications pour divers secteurs

Le Mistral Small 3 ne se contente pas d’afficher des performances techniques remarquables : il s’inscrit également dans une logique d’adaptabilité aux besoins concrets des entreprises. Parmi les cas d’usage envisagés, plusieurs domaines se démarquent :
  • Assistance conversationnelle et appels de fonction : la faible latence garantit des interactions en temps réel, essentielles pour les chatbots ou assistants virtuels ;
  • Fine-tuning pour des expertises spécifiques : sa taille modeste facilite l’ajustement fin pour des domaines précis, comme le diagnostic médical ou le conseil juridique ;
  • Inférence locale : la possibilité de déployer le modèle sur du matériel accessible favorise l’usage dans des secteurs où les données sensibles nécessitent un traitement en local.
Comme les "Ministraux", Small 3 répond également aux besoins croissants de calcul local et de protection de la vie privée : la possibilité de le déployer sur des configurations matérielles accessibles, comme une RTX 4090 ou un MacBook avec 32 Go de RAM, offre aux organisations le contrôle sur leurs données sensibles sans dépendance à une infrastructure cloud centralisée.

Une stratégie de diffusion ouverte et collaborative

Selon Mistral AI, faisant référence aux derniers modèles de DeepSeek, et au projet Open-R1,"Ce furent des jours passionnants pour la communauté open source ! Mistral Small 3 complète les grands modèles de raisonnement open source comme les récentes versions de DeepSeek, et peut servir de modèle de base solide pour faire émerger des capacités de raisonnement". L'entreprise a fait le choix de le publier sous la licence Apache 2.0, faisant le choix d'abandonner peu à peu sa licence plus restrictive MRL pour les modèles à usage général. Elle annonce d'ores et déjà "des modèles Mistral petits et grands avec des capacités de raisonnement améliorées dans les semaines à venir". Actuellement disponible sur les plateformes Hugging Face, Ollama, Kaggle, Together AI et Fireworks AI, Mistral Small 3 le sera également bientôt sur NVIDIA NIM, Amazon SageMaker, Groq, Databricks et Snowflake.. Lire plus >

Mot clé : IA -- publié le 14/02/2025 14:58:00


DeepSeek-R1, le modèle open source chinois venu déstabiliser NVIDIA et le marché de l'IA

Après avoir suscité l’attention en décembre dernier avec l'annonce de DeepSeek-V3, son modèle open source éponyme, la start-up chinoise DeepSeek est venue perturber le marché de Wall Street avec le lancement le 20 janvier dernier de DeepSeek-R1.  Ce modèle doté de capacités de raisonnement avancées, lui aussi open source et dont le coût d’entraînement a également été drastiquement réduit, alimente désormais son agent conversationnel. Nvidia a été sans conteste l'entreprise la plus impactée par l'arrivée de DeepSeek-R1. Alors que boostée par une demande accrue pour ses GPUs dédiés aux data centers, elle avait détrôné une nouvelle fois Apple en novembre dernier, redevenant l’entreprise la plus cotée en bourse, son action enregistrait hier soir une chute de 16, 86 %, la plus forte baisse depuis 2020. La société, qui a perdu plus de 580 milliards de capitalisation boursière en une seule journée, se retrouve ainsi rétrogradée à la 3ème place du marché, derrière Apple et Microsoft.

DeepSeek, la start-up chinoise qui défie les géants Américains

Alors que la guerre technologique autour de l’IA entre les Etats-Unis et la Chine continue de s’intensifier et que les acteurs de l'IA américains sont prêts à investir des sommes colossales, DeepSeek démontre une fois de plus qu’il est possible de développer à moindre coût des LLMs capables de rivaliser avec les meilleurs modèles américains aux nombres de paramètres impressionnants. Créée en mai 2023 à Hangzhou, la start-up, dirigée par Liang Wenfeng, est une filiale du fonds spéculatif High-Flyer. Son ambition est la même que celle affichée par OpenAI : développer une IA au service de l’humanité et atteindre l’IAG, des systèmes d’IA qui dépassent les capacités cognitives des êtres humains dans de nombreux domaines. Tout juste un an plus tard, l’entreprise lançait DeepSeek-V2, un modèle de langage performant proposé à un coût compétitif, déclenchant une guerre des prix sur le marché chinois de l’IA et amenant ses principaux concurrents notamment Zhipu AI, ByteDance, Alibaba, Baidu, Tencent à revoir leurs prix à la baisse. DeepSeek, son IA conversationnelle, se présente comme une alternative sérieuse aux chatbots occidentaux, surpassant ChatGPT en nombre de téléchargements tant en Chine qu'aux États-Unis. Le chatbot est également disponible sur le site de la start-up.

DeepSeek-R1

DeepSeek-R1-Zero et DeepSeek-R1 sont deux modèles de raisonnement de première génération. DeepSeek-R1-Zero, entraîné par apprentissage par renforcement (RL) sans réglage fin supervisé (SFT), a montré de solides performances. Cependant, il présente des défis tels que la répétition sans fin et la mauvaise lisibilité. Pour résoudre ces problèmes, DeepSeek-R1 intègre des données de démarrage à froid avant l'application du RL, atteignant des performances comparables à celles d'OpenAI-o1 dans les tâches mathématiques, de code et de raisonnement. Pour soutenir la communauté des chercheurs, la start-up a mis DeepSeek-R1-Zero, DeepSeek-R1 et six modèles denses distillés à partir de DeepSeek-R1 basés sur Llama et Qwen en open source. DeepSeek-R1-Distill-Qwen-32B et DeepSeek-R1-Distill-LLama 70B surpassent OpenAI-o1-mini dans divers benchmarks. Selon la start-up, DeepSeek-R1 aurait été entraîné comme son prédécesseur avec des GPU H 800 que les USA autorisaient NVIDIA à lui vendre jusqu’à l’an passé, une affirmation qui laisse perplexes certains acteurs de l'IA américains qui pensent qu'elle aurait eu accès aux GPU Hopper H100 malgré les restrictions. Quoiqu'il en soit, ses performances ont surpris les experts. Alexandr Wang, PDG de l’entreprise américaine Scale AI, a déclaré à la CNBC : "Ce que nous avons constaté, c’est que DeepSeek (...) est soit le meilleur, soit au niveau des meilleurs modèles américains". Marc Andreessen, qui a investi dans de nombreuses entreprises technologiques à succès, notamment Facebook, Twitter, LinkedIn et GitHub, a, quant à lui, qualifié DeepSeek-R1 de "l'une des percées les plus impressionnantes qu'il ait jamais vues et, en tant que source ouverte, un cadeau profond pour le monde". La course à l'IA entre les deux géants que sont les Etats-Unis et la Chine est plus que jamais ouverte.... Lire plus >

Mot clé : IA -- publié le 14/02/2025 14:58:00


Mapping IA 2025 France Digitale : avec 751 start-ups, la France se positionne comme le hub européen de l'IA

À quelques jours du Sommet pour l’Action sur l’IA, le mapping IA 2025 de France Digitale, réalisé avec le soutien de Sopra Steria Ventures et de l’accélérateur H7, révèle un écosystème français en pleine effervescence : avec 751 startups répertoriées, soit une augmentation de 27% par rapport à la précédente édition du mapping (mars 2023), la France conforte sa position de leader européen de l'IA.

Réalisé au dernier trimestre 2024, le mapping 2025 "liste exclusivement les startups créées depuis 2004, dont le siège social est basé en France, employant au moins 2 personnes et qui développent au moins un produit qui est basé sur, intègre ou sert au développement des technologies d’intelligence artificielle".

Le dynamisme de l'écosystème français s'illustre non seulement par le nombre de start-ups présentes dans l'Hexagone, mais également par les 13 milliards d'euros levés depuis leur création, le nombre de start-ups d'IA créées depuis la précédente édition, il y a presque deux ans, soit 115, ainsi que le nombre d'emplois liés (36 000). D'autant plus que 92% d’entre elles ont l’intention de recruter en 2025, ce qui pourrait représenter près de 3 500 emplois supplémentaires. L'Île-de-France demeure le principal pôle d'innovation, concentrant 63% des startups, suivi de l'Occitanie (6,5%) et d'Auvergne-Rhône-Alpes (6,1%). Cependant, le mapping révèle qu’il reste de nombreux défis à relever : l’accès au financement, aux marchés publics et privés, à la donnée et à la puissance de calcul, ainsi que les difficultés de recrutement. © France Digitale

Une diversification des usages de l’IA

Contrairement à l’idée que l’IA se résume à la génération de contenu, le mapping révèle une diversification des approches technologiques. Si 43% des startups exploitent l’IA générative, 47% développent des solutions basées sur le machine learning, le deep learning, la vision par ordinateur ou encore l’IA symbolique, une variété qui se reflète dans les secteurs d’application. © France Digitale. Répartition des start-ups par secteur Les principaux secteurs d'application sont la santé et les biotechnologies (13%), le développement de logiciels (9%), et la data et le cloud (8%).

Un modèle économique prometteur

Les startups françaises de l’IA affichent une solidité financière encourageante. 32% sont déjà rentables, et 54% prévoient de l’être d’ici trois ans. Cette performance s’explique par leur capacité à s’adapter aux besoins du marché :
  • 27% proposent des solutions sur étagère ;
  • 22% offrent des solutions personnalisables ;
  • 37% accompagnent leurs clients dans le déploiement ;
  • 13% co-développent leurs produits avec leurs clients.
Si les grandes entreprises (34%) et les ETI (20%) constituent leurs principaux clients, l’internationalisation devient un levier de croissance clé. 60% des startups réalisent déjà une part de leur chiffre d’affaires à l’international.

Des start-ups attractives

Environ 65% des start-ups ont réussi à obtenir des financements, principalement en série A. Cette tendance démontre l'attractivité des startups françaises de l'IA : 24 d'entre elles ont réalisé des levées de fonds de plus de 100 millions d'euros, soit 2,5 fois plus qu'en 2023.

Les défis à surmonter

Malgré ces avancées, des obstacles persistent. L’accès aux données demeure un frein majeur pour 25% des startups, appelant à une harmonisation européenne des régulations. L’accès à la puissance de calcul (11%) et le recrutement (13%) sont également cités comme des défis clés. Enfin, la consommation énergétique devient une préoccupation croissante, notamment face à la présence de grands acteurs internationaux captant d’importantes ressources.

Vers un écosystème européen unifié ?

Si la France se positionne comme le leader européen de l’IA, l’enjeu est désormais d’articuler cette dynamique à l’échelle du continent. Comme le souligne Maya Noël, directrice de France Digitale, la compétition avec les États-Unis impose une approche collective : “La France est le hub européen des startups de l’IA en Europe. Cependant, cette échelle nationale n’est réaliste pour personne : face à la compétitivité accrue des Etats-Unis, l’Europe doit maintenant constituer un écosystème uni qui offre des solutions clés en main pour accompagner le déploiement de l’IA dans les entreprises et dans les administrations publiques.” Retrouver le mapping 2025 ici.. Lire plus >

Mot clé : IA -- publié le 14/02/2025 14:58:00


Structurer l'écosystème quantique européen : la vision de Benjamin Haddad

Hier après-midi, Benjamin Haddad, ministre délégué chargé de l'Europe, s'est rendu à l'usine de Quandela, acteur majeur français du quantique, à Massy, dans l'Essonne. Lors de cette visite, il a appelé à redoubler d'efforts pour structurer un écosystème technologique cohérent et efficace, soulignant l'importance de coordonner les initiatives nationales et européennes et plaidant pour l'élaboration d'une stratégie quantique au niveau de l'UE. Fondé en 2017, Quandela, leader européen de la photonique quantique, conçoit, construit et fournit des solutions quantiques de pointe pour l'industrie, notamment des systèmes prêts à l'emploi pour les datacenters, des processeurs quantiques accessibles via le cloud, ainsi que des services d'accès aux algorithmes.

Coordonner les initiatives

Benjamin Haddad entend défendre une meilleure coordination des initiatives telles qu'EuroHPC, EuroQCI et les programmes nationaux pour maximiser les synergies. Par ailleurs, il préconise que les financements de France 2030 soient relayés dans le prochain cadre financier pluriannuel (CFP) européen. La France souhaite cibler le financement des secteurs économiques stratégiques dans les futures négociations du programme cadre de recherche et d'innovation (FP10) ainsi que dans Digital Europe, en mettant l'accent sur les technologies quantiques.

Simplification réglementaire : un levier pour l'innovation

Benjamin Haddad estime également que la simplification des réglementations européennes est une priorité urgente. Selon lui, ces textes ne doivent pas freiner l'investissement, l'innovation et la compétitivité des entreprises : "Nous en ferons également une grande cause du Sommet IA." Concernant les aides d'État, il souligne la nécessité d'un allègement des procédures pour permettre aux entreprises du quantique de mobiliser rapidement des fonds en phase initiale : "L’allègement des procédures d’aides d’Etat est essentiel pour que les entreprises du quantique puissent débloquer rapidement des fonds en phase initiale. Je porterai, auprès de la Commission, l’objectif de rationaliser le règlement d’exemption par catégories (RGEC) afin de mieux articuler les règles relatives aux aides d’Etat et celles relatives aux fonds européens. Cela passe par un l’alignement des conditions d’éligibilité pour simplifier l’utilisation croisée, et par un alignement des modalités d’utilisation des options de coûts simplifiées (OCS) dans le cadre des fonds européens". Pour accélérer la simplification réglementaire, Benjamin Haddad entend également appuyer la proposition de la Commission européenne de créer un 28e régime pour les jeunes entreprises innovantes, défendue par les autorités françaises : "Les difficultés d’expansion au sein du marché européen sont une faiblesse de notre écosystème d’innovation, qui provient en partie d’une fragmentation réglementaire. Cette mesure instaurerait un statut européen unique de la jeune entreprise innovante, qui permettrait à ces entreprises de ne s’enregistrer qu’une seule fois au niveau européen et de bénéficier d’une uniformisation de certaines réglementations, notamment celles facilitant l’accès aux financements. Cette mesure pourrait être la clé de voûte de la nouvelle « EU start-up and scale-up strategy » et permettrait d’accompagner les jeunes entreprises en phase de croissance."

Renforcer l'investissement privé

Le ministre délégué à l'Europe souhaite mobiliser davantage les financements privés et l'épargne européenne pour soutenir l'innovation dans les phases d'amorçage et de développement du hardware quantique. Il insiste sur la nécessité de rendre l'investissement européen plus attractif, rappelant que 300 milliards d'euros d'épargne privée sont actuellement investis hors d'Europe, principalement aux États-Unis. La création d'un produit d'épargne européen est une piste explorée, et l'Eurogroupe a déjà exprimé son intérêt sur cette question.

Renouer avec le risque

Benjamin Haddad insiste sur la nécessité pour l'Europe de se réconcilier avec la prise de risque. Il plaide pour une relance du marché de la titrisation afin de financer les innovations quantiques, tout en simplifiant les exigences de due diligence pour les investisseurs. La titrisation permet de transformer des actifs financiers, tels que des créances ou des prêts, en titres négociables sur les marchés financiers et offre aux entreprises la possibilité de lever rapidement des fonds. "Nous ne pouvons pas bureaucratiser ce qui relève de l’innovation et de l’investissement dans notre futur. C’est la raison pour laquelle je soutiens l’allégement des exigences de due diligence applicable aux investisseurs dans les opérations de titrisation, aujourd’hui trop lourdes et prescriptives. L’adoption d’une approche principielle permettra de limiter la complexité induite pour les investisseurs en se bornant à leur imposer d’évaluer correctement et raisonnablement les risques auxquels ils s’exposent.". Lire plus >

Mot clé : IA -- publié le 14/02/2025 14:58:00


InstaDeep lance Kyber, un supercalculateur proche de l’exascale, en région parisienne

InstaDeep, l'un des leaders mondiaux de l'IA décisionnelle, a annoncé hier le lancement de Kyber, un supercalculateur de nouvelle génération conçu pour répondre aux besoins croissants en calcul haute performance (HPC). Installée dans le data center Equinix de Saint-Denis, cette infrastructure, qui représente un investissement de plusieurs millions d'euros, décuple les capacités de calcul d’InstaDeep. Avec une capacité avoisinant 0,5 exaFLOP en FP16, Kyber s'inscrit parmi les 100 clusters IA les plus puissants au monde et figure dans le top 20 des clusters équipés de GPU NVIDIA H100.

Une infrastructure de pointe pour gérer des défis complexes

Conçu pour traiter des calculs extrêmement complexes, Kyber permettra de relever des défis critiques dans des domaines tels que la bio-informatique, les sciences de la vie, l'optimisation industrielle et la recherche avancée en IA. En associant cette puissance exceptionnelle à ses algorithmes innovants, InstaDeep ambitionne de transformer la prise de décision à grande échelle et la modélisation de systèmes complexes. Karim Beguir, CEO et cofondateur d’InstaDeep, assure : "Kyber représente une avancée transformative pour InstaDeep. Nous avons désormais la capacité d’accélérer les percées en IA et de concrétiser nos objectifs d'innovation au bénéfice de nos clients. Cet investissement souligne aussi l'importance clé de la France pour InstaDeep. Notre bureau de Paris, qui compte plus de 130 ingénieurs et chercheurs en IA, joue un rôle clé dans le développement de nos capacités dans la région. Héberger Kyber dans un centre de données français confirme notre engagement à stimuler l'innovation et la croissance en Europe." [embed]https://youtu.be/aCMe4c34wR4[/embed]

La France, un choix stratégique et souverain

La localisation de Kyber en région parisienne reflète une double ambition : optimiser les coûts énergétiques tout en garantissant la souveraineté des données. En construisant et en gérant ce cluster en interne, InstaDeep conserve une indépendance totale sur son infrastructure, lui permettant d'adapter les logiciels aux besoins spécifiques des utilisateurs tout en maîtrisant les coûts. Nacef Labidi, Responsable de l’Infrastructure chez InstaDeep, souligne : "Dès le départ, InstaDeep a pris la décision stratégique de construire et de gérer son propre cluster de supercalcul. Cette approche, rendue possible par notre expertise en calcul haute performance (HPC), garantit notre indépendance en matière d'accès à une puissance de calcul essentielle pour les workflows IA." 

Un rôle clé pour l'innovation en Europe

L'investissement dans Kyber illustre l'engagement d'InstaDeep en faveur de la recherche et de l'innovation en France et en Europe. En combinant des chercheurs, des bases de données robustes et une puissance de calcul sans précédent, InstaDeep se positionne comme un acteur clé des transformations industrielles et scientifiques. L'entreprise ambitionne également d'utiliser ses avancées pour répondre à des défis mondiaux, notamment en matière de durabilité et de résilience climatique. Depuis sa création, il y a dix ans, InstaDeep a mis ses technologies au service de solutions à fort impact, telles que la plateforme InstaGeo, un cadre open source d’apprentissage automatique géospatial, qui sera notamment utilisé par les participants du GeoAI Hack qu'il coorganise avec datacraft  la semaine prochaine. Avec Kyber, l'entreprise franchit un nouveau cap dans son ambition de repousser les limites de l'IA pour des industries à fort impact, tout en renforçant la souveraineté technologique européenne et en consolidant sa position de leader sur le marché de l’IA décisionnelle au côté des grands acteurs américains.. Lire plus >

Mot clé : IA -- publié le 14/02/2025 14:58:00


Les chercheurs de Hugging Face invitent la communauté open source à contribuer au projet Open-R1

Dix jours après son lancement, DeepSeek R1, qui a suscité l'émoi de la Silicon Valley et perturbé le marché de Wall Street, continue d'alimenter la une des médias internationaux. L'entreprise éponyme qui dit l'avoir mis open source pour soutenir la communauté IA n'a cependant pas révélé tous les éléments qui lui ont permis de développer ce modèle, notamment les ensembles de données et le code d'entraînement. Hugging Face, loin des polémiques, lance le projet Open-R1 et propose à la communauté de l'aider à construire les pièces manquantes du pipeline R1. Mené par Leandro von Werra, directeur de la recherche chez Hugging Face, Elie Bakouch et Lewis Tunstall, le projet Open-R1 se veut un exemple de transparence et de partage des connaissances, permettant à chacun de contribuer et d'améliorer le modèle pour des applications variées, allant de la médecine à l'éducation, en passant par la recherche fondamentale. Ils expliquent le but de leur démarche dans un blog : "Le projet Open-R1 est une initiative visant à reconstruire systématiquement le pipeline de données et de formation de DeepSeek-R1, à valider ses affirmations et à repousser les limites des modèles de raisonnement ouvert. En créant Open-R1, nous visons à fournir de la transparence sur la façon dont l’apprentissage par renforcement peut améliorer le raisonnement, partager des informations reproductibles avec la communauté open source et créer une base pour de futurs modèles permettant d’exploiter ces techniques."

Un plan en trois étapes

Pour les trois hommes, "la sortie de DeepSeek-R1 est une aubaine incroyable pour la communauté". DeepSeek-R1 est un modèle de raisonnement construit sur la base de DeepSeek-V3, présenté par la start-up chinoise fin décembre dernier, dont les performances sont comparables, à celles de principaux modèles à source fermée, comme GPT-4o ou Claude 3.5 Sonnet, et ce, malgré un coût d’entraînement nettement inférieur. Le modèle compte 2 versions : DeepSeek-R1-Zero, entraîné par apprentissage par renforcement (RL) sans réglage fin supervisé (SFT), a montré de solides performances. Cependant, il présente des défis tels que la répétition sans fin et la mauvaise lisibilité. Pour résoudre ces problèmes, DeepSeek-R1 intègre des données de démarrage à froid avant l’application du RL et de plusieurs étapes de raffinement qui rejettent les résultats de mauvaise qualité et produisent des réponses polies et cohérentes. DeepSeek a mis ces 2 versions et six modèles denses distillés à partir de DeepSeek-R1 basés sur Llama et Qwen à la disposition de la communauté. Les chercheurs de Hugging Face proposent à ceux qui voudront contribuer au projet de les aider à :
  • Étape 1 : Répliquer les modèles R1-Distill en distillant un ensemble de données de raisonnement de haute qualité à partir de DeepSeek-R1.
  • Étape 2 : Répliquer le pipeline RL pur que DeepSeek a utilisé pour créer R1-Zero. Cela impliquera la conservation de nouveaux ensembles de données à grande échelle pour les mathématiques, le raisonnement et le code.
  • Étape 3 : Montrer qu'il est possible de passer du modèle de base → SFT (Supervised Fine-Tuning)→ RL via une formation en plusieurs étapes.
Les chercheurs d'Hugging Face concluent : "Cette initiative ne consiste pas seulement à reproduire les résultats, mais aussi à partager des idées avec la communauté. En documentant ce qui fonctionne, ce qui ne fonctionne pas et pourquoi, nous espérons éviter à d’autres de perdre du temps et de calculer sur des chemins improductifs." Le projet, hébergé sur GitHub, compte plus de 12 000 étoiles, ce qui démontre l'intérêt qu'il suscite.. Lire plus >

Mot clé : IA -- publié le 14/02/2025 14:58:00


Alibaba : l'équipe Qwen annonce l'ajout de deux nouveaux modèles open source à Qwen2.5-1M

L’avancement des LLMs repose souvent sur leur capacité à traiter des volumes croissants de données dans des contextes plus longs et plus complexes. Avec le lancement des modèles open source Qwen2.5-7B-Instruct-1M et Qwen2.5-14B-Instruct-1M, l'équipe Qwen d'Alibaba Cloud place la barre très haut. Pour permettre aux développeurs de déployer plus efficacement les modèles de la série Qwen2.5-1M, ceux-ci sont accompagnés d'un cadre d'inférence innovant, intégrant une méthode d'extrapolation de longueur et une méthode d'attention clairsemée, visant à réduire les coûts d'inférence et à améliorer la précision.

Les avancées techniques de Qwen2.5-1M

L’entraînement avec des séquences aussi longues représente un défi monumental en termes de calcul. L’équipe Qwen a adopté une approche progressive :
  • Augmentation graduelle : les modèles passent de 4K à 256K jetons au pré-entraînement, grâce à l’ajustement de la fréquence de base RoPE ;
  • Fine-tuning supervisé : une stratégie en deux étapes combine des instructions courtes (32K jetons) et longues (jusqu’à 256K jetons), garantissant une performance équilibrée ;
  • Extrapolation à 1 M : l’intégration de l’attention à double bloc (DCA) permet de gérer des distances de position relative invisibles pendant l’entraînement classique, tout en évitant une dégradation des performances.

Optimisations de l’inférence

Les besoins matériels pour traiter des contextes longs sont élevés, mais l’attention clairsemée et d’autres améliorations ont permis de réduire ces contraintes :
  • Chunked Prefill : cette méthode divise les séquences en blocs pour diminuer l’utilisation de la mémoire vive (VRAM) d’activation jusqu’à 96,7 % ;
  • Optimisation du parallélisme : une meilleure gestion des ressources GPU assure une exécution fluide même sur des dispositifs limités ;
  • Efficacité accrue : ces optimisations aboutissent à une augmentation de la vitesse de traitement, qui peut être jusqu’à 6,7 fois supérieures à celle des modèles classiques.

Performances de la famille de modèles Qwen2.5-1M

Tâches à contexte long

La série Qwen2.5-1M comprend actuellement les modèles open source Qwen2.5-7B-Instruct-1M et Qwen2.5-14B-Instruct-1M, ainsi que le modèle accessible via API Qwen2.5-Turbo, qui alimente désormais Qwen Chat. Les modèles Qwen2.5-1M excellent sur des benchmarks complexes comme RULER, LV-Eval et LongBenchChat, souvent utilisés pour tester la compréhension de longs contextes, où ils surpassent leurs homologues 128K dans la plupart des tâches à contexte long, en particulier pour les séquences de plus de 64 Ko. Le modèle 14B-Instruct-1M surpasse non seulement Qwen2.5-Turbo, mais aussi des modèles concurrents comme GPT-4o-mini, offrant une alternative open-source robuste pour les tâches à contexte long. Évalués sur la tâche Passkey Retrieval, leurs résultats démontrent qu'ils peuvent récupérer avec précision des informations cachées dans des documents contenant jusqu’à 1 million de jetons, avec seulement des erreurs mineures observées dans le modèle 7B.

Tâches à contexte court

L'équipe a comparé les performances des modèles Qwen2.5-1M sur des séquences courtes par rapport à celles de leurs versions 128K et de GPT-4o-mini. Ils ont constaté que les versions 1M sont aussi précises que leurs homologues 128K sur des tâches classiques et qu'avec une longueur de contexte huit fois supérieure à celle de GPT-4o-mini, les modèles Qwen2.5-14B-Instruct-1M et Qwen2.5-Turbo atteignent des performances similaires au modèle d'OpenAI. Le lancement de Qwen2.5-1M marque un tournant pour les modèles à contexte long, repoussant les limites techniques tout en élargissant le champ des possibles pour les applications qui nécessitent un traitement contextuel étendu telles que l’analyse juridique ou la gestion documentaire. Pour plus d'informations sur les modèles, cliquer ici.. Lire plus >

Mot clé : IA -- publié le 14/02/2025 14:58:00


Cyber-IA Expo 2025 : L’IA au cœur de la cybersécurité

En prélude au Sommet pour l'Action sur l'IA, Beyond Event, Les Assises de la cybersécurité et les RIAMS (Rencontres de l’Identité de l’Audit et du Management de la Sécurité) organiseront "Cyber-IA Expo 2025" le 4 février prochain au Palais des Congrès de Paris. Cet événement, dont le Campus Cyber et le CESIN (Club des Experts de la Sécurité de l’Information et du Numérique) sont partenaires, vise à mobiliser l'écosystème face aux enjeux critiques de l'IA et de la cybersécurité.

Co-construire l’avenir de la cybersécurité

Ce nouvel événement est une réponse proactive à une double dynamique : l’intensification des cybermenaces qui sont de plus en plus sophistiquées notamment grâce à l'IA et à l’émergence de nouvelles opportunités liées à l’IA et la GenAI. Cyber-IA Expo se veut un catalyseur afin d’aider les organisations à naviguer dans cette convergence technologique inédite, où se mêlent pressions géopolitiques, enjeux économiques et transformation numérique. Son objectif est de transformer les défis actuels en leviers d'innovation et à faire de la cybersécurité et de l'IA des priorités stratégiques.

Un programme à la pointe des enjeux

La journée sera marquée par des interventions d'experts de renom qui partageront leur vision sur l'intégration de l'IA dans les stratégies de défense des organisations. Au programme : Conférence d'ouverture par Clara Chappaz, Ministre déléguée chargée de l'intelligence artificielle et du numérique. Parmi les intervenants :
  • Cédric O, Président de The Marshmallow Project, ancien secrétaire d’État chargé du Numérique, apportera sa vision sur une IA maîtrisée au service de la société ;
  • Christel Heydemann, Directrice générale du groupe Orange, pour une IA de confiance pour le bien commun ;
  • Guillaume Poupard, Directeur général adjoint de Docapost et ancien Directeur général de l’ANSSI, interviendra sur les enjeux de l’IA dans la cybersécurité ;
  • Corine de Bilbao, Présidente de Microsoft France, partagera son expertise sur l’IA de confiance et son impact sociétal ;
  • Bernard Gavgani, CIO de BNP Paribas, discutera du rôle stratégique de l’IA dans la refonte des systèmes d’information internationaux ;
  • Michel Van Den Berghe, Fondateur du Campus Cyber, apportera son éclairage sur la gouvernance d’une IA de confiance ;
  • Thiébaut Meyer, Directeur cybersécurité de Google France, pour une IA sécurisée et respectueuse des données ;
  • Anwar Dahab, Directeur général de DELL Technologies s’exprimera sur les solutions pour une IA de confiance ;
  • Général Patrick Perrot, Coordinateur IA et stratégie de la donnée de la Gendarmerie Nationale.
Vincent Strubel, Directeur général de l’ANSSI, clôturera la journée.

Des espaces d’échanges et de networking

Outre les conférences, l'événement proposera :
  • Un forum d'exposition avec plus de 45 exposants, permettant aux participants de découvrir les dernières innovations en cybersécurité et IA ;
  • Le Scale-Ups Investment Day, organisé avec Ryder & Davis, où une dizaine de scale-ups présenteront leurs projets à une centaine d'investisseurs représentant une cinquantaine de fonds européens ;
  • Deux tables rondes organisées avec la FNCCR (Fédération nationale des collectivités concédantes et régies) : la première examinera comment la directive NIS2 (Network and Information Security) de l'UE, peut renforcer la confiance numérique auprès des usagers, et la seconde s’intéressera à l’innovation en cybersécurité face à l’essor de l’IA.
Pour consulter le programme détaillé : www.ia-cyber.com.. Lire plus >

Mot clé : IA -- publié le 14/02/2025 14:58:00


Etude Seagate/Recon Analytics : l'IA entraînera une croissance exponentielle des besoins en stockage des entreprises d'ici 2028

Une enquête mondiale menée en novembre dernier par Recon Analytics pour le compte de Seagate Technology révèle que l'adoption croissante des applications d'IA génère des volumes de données sans précédent, entraînant une explosion de la demande de stockage, en particulier dans le cloud. Recon Analytics a interrogé 1 062 acheteurs et décideurs d’infrastructures de stockage d’entreprises déclarant un chiffre d’affaires annuel supérieur à 10 millions de dollars et une capacité de stockage actuelle supérieure à 50 To dans 10 pays. Selon son enquête, 72 % des entreprises interrogées utilisent déjà l'IA et 28 % prévoient de l’adopter d’ici trois ans.

Les disques durs au cœur de la stratégie cloud

Selon l'étude, 61 % des entreprises qui utilisent le cloud comme principal support de stockage anticipent une augmentation de plus de 100 % de leur capacité cloud d'ici 2028. Cette croissance est principalement soutenue par l'utilisation des disques durs, qui offrent une rentabilité équivalente à celle du téraoctet par euro et restent la technologie de prédilection des fournisseurs de services cloud. En effet, selon le rapport 2024 IDC Cloud Infrastructure Index, 89 % des données stockées par les principaux fournisseurs de services cloud le sont sur des disques durs. Les répondants ont indiqué que 65 % de leurs données d’IA étaient stockées dans le cloud en 2024,un pourcentage qui devrait monter à 69 % d’ici 2028. Crédit image : Recon Analytics. Utilisation du cloud en pourcentage du stockage actuel du client par rapport à l’avenir. Roger Entner, fondateur et analyste principal de Recon Analytics, souligne : "Les résultats de l'enquête indiquent généralement une augmentation à venir de la demande de stockage de données, les disques durs étant les grands gagnants. Si l'on considère que les dirigeants d'entreprise interrogés ont l'intention de stocker de plus en plus de ces données basées sur l'IA dans le cloud, il semble que les services cloud soient bien placés pour surfer sur une deuxième vague de croissance."

Les priorités des entreprises face à l'IA

L'enquête révèle que, parmi les composants essentiels de l'infrastructure IA, le stockage arrive en deuxième position, juste derrière la sécurité : 66 % des personnes interrogées ont classé le stockage parmi leurs quatre préoccupations les plus importantes en matière d’infrastructure, tandis que 68 % ont classé la sécurité parmi les quatre premiers. Crédit image : Recon Analytics. Importance des composantes de l’infrastructure d’IA Les défis liés à la sécurité et à la conformité réglementaire sont également au cœur des préoccupations. La mise en œuvre de solutions de stockage cloud plus évolutives (61 % des répondants) est l'une des principales stratégies adoptées par les entreprises, suivie par l'amélioration des logiciels de gestion des données (56 %) tandis que 55 % investissent dans la mise à niveau de leurs infrastructures existantes et 49 % mettent en œuvre des techniques de compression des données. Mesures prises par les entreprises pour s’adapter aux besoins croissants en données de l’IA

Un avenir centré sur la fiabilité des données

Les entreprises considèrent que la conservation des données sur de plus longues périodes est cruciale pour améliorer la précision des modèles d'IA : 90 % des répondants estiment qu'une rétention prolongée des données optimise la qualité des résultats produits par l'IA. L'enquête met en lumière une exigence croissante en matière de fiabilité et de durabilité des données stockées : 88 % des répondants estiment que l'adoption d'une IA digne de confiance repose sur la capacité à stocker des volumes massifs de données sur des durées prolongées. La réplication des données est jugée très ou modérément importante par 80 % des répondants pour garantir l'intégrité de l'IA. Parmi les personnes interrogées qui enregistrent les points de contrôle quotidiennement (28 % des répondants), 32 % conservent les données pendant plus de 12 mois, tandis que 29 % les conservent pendant six à 12 mois. Les entreprises qui utilisent plus de 100 Po de stockage enregistrent et sauvegardent les points de contrôle sur une base quotidienne ou hebdomadaire, 87 % d’entre elles stockant ces points de contrôle dans le cloud ou dans un mélange de disques durs et de disques SSD. Recon Analytics anticipe une croissance exponentielle des besoins en stockage des entreprises. Cette tendance se renforcera lorsque les entreprises passeront de la phase d'essai de l'IA à une utilisation active. L'entraînement des LLMs, la réplication des données et l'allongement des périodes de conservation des données, qui sont des éléments essentiels d'une stratégie d'IA, nécessiteront des investissements accrus en stockage pour garantir le succès.. Lire plus >

Mot clé : IA -- publié le 14/02/2025 14:58:00


Je souhaite en savoir plus