TECH N'CHANGE
De 8H à 18H
contact@technchange.net
(+225) 27 21 32 42 47 / (+225) 07 89 97 11 13
L’Université Mohammed VI Polytechnique (UM6P) et STATION F annoncent un partenariat stratégique visant à stimuler l’innovation et à renforcer les liens entre l’Europe et l’Afrique. Baptisé NextAfrica, ce programme de six mois ambitionne d’accompagner et d’accélérer les start-ups internationales souhaitant se développer sur le marché africain, notamment dans les domaines de la Greentech, l’Agritech et la Healthtech, alignés sur la vision et l’expertise de l’UM6P.
Mot clé : IA -- publié le 14/02/2025 14:58:00
En fin de semaine dernière, alors que tout le monde avait les yeux rivés sur DeepSeek et son modèle R1, Mistral AI, licorne française de la GenAI, a lancé plus discrètement Mistral Small 3. Publié sous la licence Apache 2.0, ce modèle de 24 milliards de paramètres optimisé pour la latence est "une excellente alternative open source aux modèles propriétaires opaques comme GPT4o-mini" selon elle. Avec Small 3, la licorne, démontre une fois de plus que pour être performant, un LLM ne requiert pas un nombre astronomique de paramètres. Le modèle se positionne comme une réponse aux besoins croissants d'efficacité en offrant un taux de traitement de 150 tokens par seconde, tout en affichant une précision de plus de 81 % sur le benchmark MMLU. Cette prouesse technique est rendue possible grâce à une architecture optimisée qui réduit le nombre de couches traditionnelles, diminuant ainsi le temps de passage avant (forward pass time, ou temps nécessaire à un modèle de réseau de neurones pour traiter une entrée et produise une sortie) sans compromettre la qualité des réponses. Ce choix architectural, qui en fait "actuellement le modèle le plus efficace de sa catégorie", permet à la version optimisée, Mistral Small 3 Instruct, de rivaliser avec des modèles bien plus imposants comme Llama 3.3 70B ou Qwen 32B, tout en garantissant une exécution rapide et efficace sur du matériel standard.
Mot clé : IA -- publié le 14/02/2025 14:58:00
Après avoir suscité l’attention en décembre dernier avec l'annonce de DeepSeek-V3, son modèle open source éponyme, la start-up chinoise DeepSeek est venue perturber le marché de Wall Street avec le lancement le 20 janvier dernier de DeepSeek-R1. Ce modèle doté de capacités de raisonnement avancées, lui aussi open source et dont le coût d’entraînement a également été drastiquement réduit, alimente désormais son agent conversationnel. Nvidia a été sans conteste l'entreprise la plus impactée par l'arrivée de DeepSeek-R1. Alors que boostée par une demande accrue pour ses GPUs dédiés aux data centers, elle avait détrôné une nouvelle fois Apple en novembre dernier, redevenant l’entreprise la plus cotée en bourse, son action enregistrait hier soir une chute de 16, 86 %, la plus forte baisse depuis 2020. La société, qui a perdu plus de 580 milliards de capitalisation boursière en une seule journée, se retrouve ainsi rétrogradée à la 3ème place du marché, derrière Apple et Microsoft.
Mot clé : IA -- publié le 14/02/2025 14:58:00
À quelques jours du Sommet pour l’Action sur l’IA, le mapping IA 2025 de France Digitale, réalisé avec le soutien de Sopra Steria Ventures et de l’accélérateur H7, révèle un écosystème français en pleine effervescence : avec 751 startups répertoriées, soit une augmentation de 27% par rapport à la précédente édition du mapping (mars 2023), la France conforte sa position de leader européen de l'IA.
Réalisé au dernier trimestre 2024, le mapping 2025 "liste exclusivement les startups créées depuis 2004, dont le siège social est basé en France, employant au moins 2 personnes et qui développent au moins un produit qui est basé sur, intègre ou sert au développement des technologies d’intelligence artificielle".
Le dynamisme de l'écosystème français s'illustre non seulement par le nombre de start-ups présentes dans l'Hexagone, mais également par les 13 milliards d'euros levés depuis leur création, le nombre de start-ups d'IA créées depuis la précédente édition, il y a presque deux ans, soit 115, ainsi que le nombre d'emplois liés (36 000). D'autant plus que 92% d’entre elles ont l’intention de recruter en 2025, ce qui pourrait représenter près de 3 500 emplois supplémentaires. L'Île-de-France demeure le principal pôle d'innovation, concentrant 63% des startups, suivi de l'Occitanie (6,5%) et d'Auvergne-Rhône-Alpes (6,1%). Cependant, le mapping révèle qu’il reste de nombreux défis à relever : l’accès au financement, aux marchés publics et privés, à la donnée et à la puissance de calcul, ainsi que les difficultés de recrutement. © France DigitaleMot clé : IA -- publié le 14/02/2025 14:58:00
Hier après-midi, Benjamin Haddad, ministre délégué chargé de l'Europe, s'est rendu à l'usine de Quandela, acteur majeur français du quantique, à Massy, dans l'Essonne. Lors de cette visite, il a appelé à redoubler d'efforts pour structurer un écosystème technologique cohérent et efficace, soulignant l'importance de coordonner les initiatives nationales et européennes et plaidant pour l'élaboration d'une stratégie quantique au niveau de l'UE. Fondé en 2017, Quandela, leader européen de la photonique quantique, conçoit, construit et fournit des solutions quantiques de pointe pour l'industrie, notamment des systèmes prêts à l'emploi pour les datacenters, des processeurs quantiques accessibles via le cloud, ainsi que des services d'accès aux algorithmes.
Mot clé : IA -- publié le 14/02/2025 14:58:00
InstaDeep, l'un des leaders mondiaux de l'IA décisionnelle, a annoncé hier le lancement de Kyber, un supercalculateur de nouvelle génération conçu pour répondre aux besoins croissants en calcul haute performance (HPC). Installée dans le data center Equinix de Saint-Denis, cette infrastructure, qui représente un investissement de plusieurs millions d'euros, décuple les capacités de calcul d’InstaDeep. Avec une capacité avoisinant 0,5 exaFLOP en FP16, Kyber s'inscrit parmi les 100 clusters IA les plus puissants au monde et figure dans le top 20 des clusters équipés de GPU NVIDIA H100.
Mot clé : IA -- publié le 14/02/2025 14:58:00
Dix jours après son lancement, DeepSeek R1, qui a suscité l'émoi de la Silicon Valley et perturbé le marché de Wall Street, continue d'alimenter la une des médias internationaux. L'entreprise éponyme qui dit l'avoir mis open source pour soutenir la communauté IA n'a cependant pas révélé tous les éléments qui lui ont permis de développer ce modèle, notamment les ensembles de données et le code d'entraînement. Hugging Face, loin des polémiques, lance le projet Open-R1 et propose à la communauté de l'aider à construire les pièces manquantes du pipeline R1. Mené par Leandro von Werra, directeur de la recherche chez Hugging Face, Elie Bakouch et Lewis Tunstall, le projet Open-R1 se veut un exemple de transparence et de partage des connaissances, permettant à chacun de contribuer et d'améliorer le modèle pour des applications variées, allant de la médecine à l'éducation, en passant par la recherche fondamentale. Ils expliquent le but de leur démarche dans un blog : "Le projet Open-R1 est une initiative visant à reconstruire systématiquement le pipeline de données et de formation de DeepSeek-R1, à valider ses affirmations et à repousser les limites des modèles de raisonnement ouvert. En créant Open-R1, nous visons à fournir de la transparence sur la façon dont l’apprentissage par renforcement peut améliorer le raisonnement, partager des informations reproductibles avec la communauté open source et créer une base pour de futurs modèles permettant d’exploiter ces techniques."
Mot clé : IA -- publié le 14/02/2025 14:58:00
L’avancement des LLMs repose souvent sur leur capacité à traiter des volumes croissants de données dans des contextes plus longs et plus complexes. Avec le lancement des modèles open source Qwen2.5-7B-Instruct-1M et Qwen2.5-14B-Instruct-1M, l'équipe Qwen d'Alibaba Cloud place la barre très haut. Pour permettre aux développeurs de déployer plus efficacement les modèles de la série Qwen2.5-1M, ceux-ci sont accompagnés d'un cadre d'inférence innovant, intégrant une méthode d'extrapolation de longueur et une méthode d'attention clairsemée, visant à réduire les coûts d'inférence et à améliorer la précision.
Mot clé : IA -- publié le 14/02/2025 14:58:00
En prélude au Sommet pour l'Action sur l'IA, Beyond Event, Les Assises de la cybersécurité et les RIAMS (Rencontres de l’Identité de l’Audit et du Management de la Sécurité) organiseront "Cyber-IA Expo 2025" le 4 février prochain au Palais des Congrès de Paris. Cet événement, dont le Campus Cyber et le CESIN (Club des Experts de la Sécurité de l’Information et du Numérique) sont partenaires, vise à mobiliser l'écosystème face aux enjeux critiques de l'IA et de la cybersécurité.
Mot clé : IA -- publié le 14/02/2025 14:58:00
Une enquête mondiale menée en novembre dernier par Recon Analytics pour le compte de Seagate Technology révèle que l'adoption croissante des applications d'IA génère des volumes de données sans précédent, entraînant une explosion de la demande de stockage, en particulier dans le cloud. Recon Analytics a interrogé 1 062 acheteurs et décideurs d’infrastructures de stockage d’entreprises déclarant un chiffre d’affaires annuel supérieur à 10 millions de dollars et une capacité de stockage actuelle supérieure à 50 To dans 10 pays. Selon son enquête, 72 % des entreprises interrogées utilisent déjà l'IA et 28 % prévoient de l’adopter d’ici trois ans.
Mot clé : IA -- publié le 14/02/2025 14:58:00