Actualités

Nvidia GTC 2021 : les annonces essentielles de la conférence d’ouverture ! (“quatre vagues”, un fleuve d’annonces… sur la feuille de “route”)

Évènement annuel incontournable pour les aficionados du fabricant, le GTC se déroule actuellement, jusqu’au 16 Avril 2021 dans une édition entièrement numérique. Les e-festivités ont démarré le 12 Avril dernier, via la keynote dédiée.

Toujours en direct de ses fourneaux, Jensen Huang, dirigeant principal du groupe Nvidia a, comme à l’accoutumé, entamé la session d’ouverture du GTC en annonçant les dernières nouveautés. La conférence démarre avec une introduction appuyée sur le rôle de l’intelligence artificielle au sein de divers corps de métier (art, concept, musique, mécanique…) et s’envole dans les nuages pour atterrir sur le bitume et de manière entièrement autonome… Voici un condensé des annonces principales de la keynote du 12 Avril 2021 :

 

 

 

 

  • Amélioration de la plate-forme de virtualisation 2D et 3D Omniverse : intégration du connecteur ParaView pour affiner les travaux dans ce domaine (navigation web, réalité augmentée, réalité virtuelle, station de travail). Omniverse est actuellement en bêta – publique : particulier ou professionnel – et accueillera prochainement ParaView. Dans le domaine de la conduite assistée ou autonome, Drive Digital Twin est combiné à Omniverse pour cartographier, en 3D et en haute-résolution, l’environnement réel et permettre d’analyser les données pour en dégager des décisions (s’arrêter, s’écarter, stopper…). Drive Sim, le moteur de Drive Digital Twin est annoncé disponible courant de cet été 2021. Drive Sim est montré en primeur, en toute fin de conférence de la vidéo (Youtube) et met en avant, par exemple, un outil ou allié précieux, suivant les avis, pour la difficile étape du créneau : pour certain(e)s, il sera peut-être bientôt fini le temps où, par mesure de précaution, il fallait trouver une place de parking où aucune autre voiture ne gravite autour ;

 

 

  • Avènement d’un nouveau Data Processing Unit (DPU) : nommé Bluefield-3, il intégrera DOCA (v1.0), un DCoC (Data Center on Chip) qui permettra de gérer des outils ou ressources (librairie, télémétrie, stockage, sécurité) pour, par exemple et depuis l’horloge en temps réel, la possibilité de synchroniser des données (data center) ou encore supporter la 5G voire une diffusion directe d’un contenu vidéo, affirme Nvidia, lors de sa présentation. Bluefield-3 fera transiter l’information à hauteur de 400 Go / sec. au sein de ses 22 milliards de transistors. “Premier DPU 400 GbE / NDR du secteur, BlueField-3 offre des performances réseau inégalées. Il offre 10 fois la puissance de calcul accélérée de la génération précédente, avec 16 cœurs Arm A78 et 4 fois l’accélération pour la cryptographie. BlueField-3 est également le premier DPU à prendre en charge le PCIe de cinquième génération et à offrir une accélération de centre de données synchronisée dans le temps“, indique, par ailleurs, le communiqué officiel dédié. DOCA est annoncé en téléchargement depuis le 12 Avril 2021 ; pour le DPU, par contre, il faudra patienter jusqu’au premier trimestre 2022 ;

 

  • Avènement d’un nouveau DPU : nommé, quant à lui, Bluefiled-4, il sera un peu plus musclé que son prédécesseur en intégrant 64 milliards de transistors et un transit maximal de données à hauteur de 800 Go par secondes. Disponibilité annoncée : 2024 ;

 

 

  • Les solutions cloud-(super)computing continuent d’évoluer : c’est le cas au sein de Nvidia via sa famille de produits DGX, qui permettent, du développement à la finalisation d’un projet sous la coupe de l’intelligence artificielle, de faciliter le traitement logistique et informatique des opérations gravitant autour, sur l’ensemble de la chaîne de production donc. Le DGX A100 (pouvant traiter 5 Pflops de données… !!), annoncé en Novembre 2020, peut se combiner en station de travail en s’imbriquant en tour, à la manière d’une poupée russe. Dans ce contexte, les données transitées peuvent être, au maximum, de 2,5 Pflops sous HBM2e de 320 Go (8 To / sec. pour la partie GPU – GDDR6 de 4 Go – contre 2,4 To / sec. sous NVLink). Côté CPU, 64 micro-puces AMD sont embarquées (7742 – TDP 225 W) et le stockage est compatible PCIe (Gen4). Ces serveurs pourront supporter la 5K et intégreront 4 DisplayPort-mini. Stockage en SSD de 7,68 To (NVMe). Pour faire passer la pilule au niveau du prix, Nvidia annonce aux professionnels qu’usuellement, une solution-serveur similaire “coûterait 1 M de dollars environ”. Le DGX Station sera disponible pour 149 000 dollars (unitairement) ;

 

  • Toujours au niveau des solutions cloud-(super)computing, le DGX SuperPod (qui permet de regrouper ces stations de travail sous la forme d’une sorte d’énorme kitkat) sera là pour satisfaire les projets ou concepts les plus gourmands en terme d’opérations computationnelles intelligentes ou en relation avec l’IA. Annoncé en Octobre 2020, il permet de gérer jusqu’à 700 Tflops de données et jusqu’à 140 DGX A100. Le SuperPod subit de nouvelles évolutions : support de la déclinaison 80Go du DGX A100, support de Bluefield-2 ainsi que de Base Command Manager, un logiciel permettant, selon Nvidia, de ne faire aucun compromis entre le projet en cours de développement et les ressources disponibles. Prix de la bête : entre 7 M de dollars et 60 M de dollars, selon la configuration (minimale ou maximale) désirée ;

 

 

  • Bien décidé à amortir son investissement au sein de l’entreprise ARM, Nvidia a annoncé un partenariat avec Amazon et sa branche Cloud (Amazon Web Service) via l’avènement de Graviton2 : “les initiatives incluent la combinaison d’instances Amazon EC2 basées sur AWS Graviton2 avec des GPU NVIDIA; soutenir le développement d’applications scientifiques et d’IA avec un nouveau kit de développement HPC; renforcer l’analyse vidéo et les fonctionnalités de sécurité à la périphérie; et la création d’une nouvelle classe de PC basés sur Arm avec des GPU NVIDIA RTX“, précise le communiqué officiel dédié. L’idée est de pouvoir utilisé, là aussi, les bénéfices de l’architecture ARM pour les solutions AWS en déployant les capacités vers de nouvelles solutions Cloud. Streaming, productivité bureautique, cloud-gaming (Android, les plate-formes mobiles sont évoquées), il s’agit ni plus ni moins de doper les GPUs Nvidia en osant les coupler avec les solutions AWS EC2 ;
  • Partenariat avec Ampere Computing via l’avènement d’un kit de développement (SDK) HPC : toujours sous la houlette des bénéfices (investissement) indirects liés à l’acquisition ARM, Nvidia mettra à disposition, d’ici le troisième trimestre 2021, un kit à destination des développeurs (disponible dès maintenant – accès anticipé – mais sur demande, annonce Nvidia) qui comprendra “une suite de compilateurs, de bibliothèques et d’outils” pour développer ou porter des applications HPC ou compatibles avec l’intelligence artificielle vers la nouvelle architecture ARM tournant sous les nouvelles solutions GPUs décrites dans le point précèdent. Permettant d’opérer des (super)calculs complexes, la teneur du kit est la suivante : 1 processeur Ampere Altra (80 coeurs ARM Neoverse cadencés jusqu’à 3,3 GHz), 2 GPUs Nvidia A100 (312 Tflops FP16) et 2 DPUs Nvidia Bluefield-2 ;
  • Partenariat avec Marvell “pour combiner les DPU OCTEON avec des GPU afin d’accélérer les applications cloud, d’entreprise, de support et de périphérie. Cette combinaison accélérera les charges de travail de l’IA telles que l’optimisation du réseau et la sécurité de la périphérie au cloud, augmentant les performances du système et réduisant la latence” ;
  • Partenariat, enfin, avec MediaTek “pour créer une plate-forme de référence prenant en charge les SDK Chromium, Linux et NVIDIA. La combinaison de GPU NVIDIA RTX avec des processeurs Arm Cortex® hautes performances et éco-énergétiques apportera des graphiques réalistes avec lancer de rayons et une IA de pointe à une nouvelle classe d’ordinateurs portables“. Cette alliance permettra à Nvidia de compléter sa palette de SDK en proposant des kits pour les terminaux mobiles sous ChromeOS ou Linux ;

 

  • Annonce de taille, Nvidia vient de confirmer que son ordinateur sous IA Orin a été amélioré : Nommé techniquement Orin Central Computer, le SoC réunira quatre domaines de gestion pour les véhicules autonomes compatibles, “y compris la visualisation en vue de confiance des capacités de conduite autonome, des clusters numériques, de l’info-divertissement et de l’IA d’interaction avec les passagers“, en terme de fonctionnalités, indique le communiqué officiel. 250 milliards d’opérations sont traités ainsi par seconde et il est déjà annoncé, de plus, qu’une ligne de voitures signée Nvidia (!!) sera produite d’ici 2022 “tout en respectant des normes de sécurité systématiques telles que ISO 26262 ASIL-D”. L’un des points les plus surprenants et une perception, du point de vue de la voiture, d’une cartographie en “surround 3D” : il s’agit d’un modèle, toujours basé sur la prédiction et l’analyse en temps réel de la donnée, ici, routière ou de conduite, qui permettra de construire, de manière autonome, une conduite correcte ou calée sur le modèle humain pour laisser le volant sur un trajet entier par exemple. Tout comme les modèles concurrents, les occurrences ou dangers immédiats sont signalés (en rouge, cf. illustration ci-dessus) pour adapter, alors, en théorie, la conduite en évitant l’obstacle ;

 

 

   

  • Une annonce ou voiture pouvant en cacher une autre, Nvidia, toujours dans ce domaine, confirme l’avènement de sa plate-forme Hyperion : estampillée en version 8 elle pourra supporter une configuration assez avancée. “À la base, deux systèmes sur puce (SoC) NVIDIA DRIVE Orin fournissent un calcul suffisant pour les capacités de conduite autonome et de cockpit intelligent de niveau 4. Ces SoC traitent les données d’un halo de 12 caméras extérieures, trois caméras intérieures, neuf radars et deux capteurs lidar en temps réel pour un fonctionnement autonome en toute sécurité. Hyperion comprend également tous les outils nécessaires pour évaluer la pile logicielle NVIDIA DRIVE AV et DRIVE IX, ainsi que des capacités d’enregistrement et de capture en temps réel pour un traitement rationalisé des données de conduite. Et tout cet ensemble d’outils est synchronisé et calibré avec précision pour la collecte de données 3D, ce qui permet aux développeurs de gagner un temps précieux dans la configuration et l’exécution de tests de véhicules autonomes“, est-il précisé officiellement par le fabricant qui annonce déjà une mise à disposition de la plate-forme “plus tard courant 2021” ; “bientôt” pour les tests-développeurs ;

 

 

  • Jamais deux sans trois : toujours au rayon automobile (autonome), Nvidia sait ménager le suspens en élargissant ses prévisions pour le futur. Il y aura mieux qu’Orin et ses 254 Tops, annonce Nvidia. L’évolution a un nom : Atlan. De son nom technique, Drive Atlan est un SoC promettant une gestion alléchante maximale, en terme de données, pouvant aller jusqu’à 1 000 Tops (!!). “La plate-forme de nouvelle génération atteindra des performances sans précédent de 1000 billions d’opérations par seconde (TOPS) et un score SPECint estimé à plus de 100 (SPECrate2017_int) – supérieur au calcul total dans la plupart des robotaxis aujourd’hui. Atlan est également le premier SoC à être équipé d’une unité de traitement de données (DPU) NVIDIA BlueField pour des services de sécurité, de mise en réseau et de stockage avancés […] Véritable centre de données sur roues, Atlan centralise l’ensemble de l’infrastructure de calcul du véhicule en un seul système sur puce“, est-il ambitionné au sein du communiqué dédié. Disponibilité de la micro-bête : dès 2023 pour les premiers tests (du fait qu’Atlan emboîtera le pas à Orin, qui sera déployé en 2022) et 2025, au minimum, pour la production de masse. En primeur, de nouveaux clichés sont brièvement donné par Nvidia (autre que le concept-car du fabricant montrant plus en avant avec un volant flanqué du logo Mercedes…) montrant des voitures autonomes qui pourraient intégrer vraisemblablement Atlan. Des designs dignes des voitures que l’on retrouve en partie dans des jeux actuels comme Cyberpunk 2077. Voitures de plaisance ou utilitaires (permettant d’acheminer plusieurs personnes dans un concept-van nommé “robot-taxis” et qui est annoncé par Nvidia “dans les prochaines années“… ce qui fait étrangement échos à Xiaomi et son image furtive de caravane bardée de technologie de l’entreprise : des solutions autonomes pour les trajets en groupe seraient apparemment dans les plans de ces fabricants… ?) voire services automobiles dédiés (location de voiture, transport payant), Nvidia veut être sur tout les segments de ce marché… jusque dans les camions de transport ! Ce n’est pas une erreur de frappe : le dirigeant de l’entreprise veut porter les SoCs pour véhicules autonomes jusqu’à l’intérieur des camions ou des poids-lourds. Volvo, Navistar, Einride ou encore LocoMotion sont mis en avant pour permettre aux routiers qui écument, toute l’année, les (auto)routes de s’acoquiner avec l’intelligence artificielle pour faciliter la conduite sur de longs trajets  ;

 

  • Nouvelles déclinaisons de produits au sein de la gamme Aerial, des stations de travail virtuelles ou mixtes (IA, data statistiques, calculs…) : avènement des Tensor Core A30 et A10. Côté fiche technique (illustration ci-dessus), en toute logique, le modèle A30 – de son nom, est un peu plus musclé, entre-autres, concernant la mémoire GPU de quelques 24 Go (dont le nombre est équivalent, pour les deux modèles) de type HBM2, contre GDDR6 pour le modèle A10. Pour l’occasion, Nvidia, en plus de renouveler sa gamme de produits Aerial, annonce un énième partenariat, cette fois, avec la section Cloud de Google (!) afin que ces modèles soient compatibles avec les futurs standards, notamment la 5G “basse-latence” combinée aux solutions ou applications-services exploitant l’intelligence artificielle ;

 

 

  • Avènement du projet Grace (en hommage à la scientifique-informaticienne et rear Amiral – États-Unis, grade militaire dans l’US Navy, la marine – Grace Hopper, qui a mis en lumière le tout premier compilateur dans le début des années 1950 et le langage COBOL, en 1959), un CPU spécialisé dans les solutions de centre de données (datacenters) : toujours dans un but d’avaler à vitesse grand V de la donnée calculée par l’entremise de l’IA, Nvidia a conçu une toute nouvelle architecture pour traiter, en conséquence, un tel flot de données qui transitera de la mémoire (LPDDR5) vers les GPUs dédiés (HBM2e) à quelques 2 000 Go / seconde ! “Grace met en lumière la beauté d’ARM“, affirme Jensen Huang qui ne cache pas la volonté de l’entreprise de pouvoir pleinement amortir les bénéfices de l’acquisition de l’équipementier, depuis Septembre 2020. Grace permet d’afficher un SpecInt_rate de quelques 2 400 : à titre comparatif et toujours selon Nvidia, la solution DGX, en pointe, quant à elle, affiche un SpecInt_rate de 450. La bande-passante, avant le projet Grace permettait un transit de données (LPDDR4 vers GPU HBM2e), au maximum, de 64 Go / seconde contre 2 000, sous la coupe du projet Grace, souligne fortement Nvidia qui, pour l’occasion voyage dans les méandres de la réalité mixte pour présenter brièvement Mellanox : “la mise en réseau NVIDIA Mellanox a plus que doublé son investissement dans Arm. Le DPU BlueField-3 annoncé aujourd’hui contient des liaisons 400 Gbit / s et 5 fois la puissance de calcul Arm du DPU actuel, le BlueField-2“, indique le communiqué relatif ;

 

  • Toujours dans la lignée du projet Grace, avènement d’un ordinateur de type super-calculateur : nommé Alps, il a été conçu en partenariat avec Nvidia mais, également, le CSCS (Centre national Suisse de Supercalcul Intensif) et HPE (Hewlett Packard Enterprise). Annoncé comme le dispositif “le plus puissant au monde“, il sera doté, d’ici 2023 – année de mise en ligne opérationnelle – d’outils axés intelligence artificielle et permettant de prédire la météo ou encore de traiter “les sciences des matériaux, l’astrophysique, la dynamique des fluides computationnelle, les sciences de la vie, la dynamique moléculaire, la chimie quantique et la physique des particules, ainsi que des domaines tels que l’économie et les sciences sociales“, indique le communiqué relatif. Il intégrera l’architecture HPE Cray EX pour optimiser les calculs de cet acabit ainsi que la plate-forme Nvidia HGX (GPU + SDK HPC) et, bien sûr, le tout nouveau CPU tirant parti de la technologie ARM, Grace. “Profitant du couplage étroit entre les processeurs NVIDIA et les GPU, Alps sera en mesure de former GPT-3, l’un des plus grands modèles de traitement du langage naturel au monde, en seulement deux jours – 7 fois plus rapide que le supercalculateur Exaflops 2.8-AI de NVIDIA Selene, actuellement reconnu en tant que principal supercalculateur au monde pour l’IA par MLPerf“, est-il détaillé dans le communiqué officiel ;

 

  • Avènement de Morpheus, une nouvelle plate-forme sécuritaire de veille ou maintenance permettant d’inspecter en temps-réel chaque paquet de donnée. “L’intégration du cadre dans une offre de cybersécurité tierce apporte le meilleur calcul IA au monde aux réseaux de communication. Morpheus peut recevoir des flux de télémétrie riches de chaque serveur accéléré par NVIDIA BlueField DPU dans le centre de données sans affecter les performances du serveur. Les DPU BlueField-2 agissent à la fois comme un capteur pour collecter des flux de paquets en temps réel et comme un point d’application de politique pour limiter la communication entre tout conteneur de microservice ou machine virtuelle dans un centre de données. En plaçant les DPU BlueField-2 dans les serveurs du centre de données, Morpheus peut automatiquement écrire et modifier les politiques pour remédier immédiatement aux menaces de sécurité – de la modification des journaux collectés et de la modification du volume d’ingestion, à la redirection dynamique de certains événements de journal, en bloquant le trafic nouvellement identifié. comme des règles de réécriture malveillantes pour appliquer les mises à jour de stratégie, et plus encore“, indique le communiqué officiel. Un accès anticipé est actuellement en cours pour les États-Unis et Israël et de nombreux acteurs du secteur sécuritaire (Fortinet, Red Hat, CloudFlare, Splunk, F5, Best Buy notamment) ont contribué à sa mise en œuvre. Pour comprendre Morpheus, Nvidia en explique les grandes lignes : au sein du système ou du réseau, une occurrence inconnue (élément indésirable) intervient (en rouge, dans l’illustration ci-dessus) lors d’une mise à jour (Nvidia donne en exemple un bug qui efface la partie chiffrement…). Cette occurrence se propage comme un virus et va en quelque sorte infecter ou impacter les autres services ou applications proches ou ayant une connexion logicielle étroite au sein du système (le propre d’une vulnérabilité sécuritaire). Morpheus intervient alors grâce à son modèle reposant sur l’intelligence artificielle pour riposter, en théorie, en conséquence : chaque dysfonctionnement est flagé pour être ensuite signalé et / ou isolé. La plate-forme de veille agit comme un outil préventif dopé à l’IA pour faciliter, en arrière-plan, la tâche aux administrateurs-système, par exemple. Un autre exemple est, par ailleurs, donné avec les lignes de code : plutôt que de les lire ou les prendre une à une quand soupçon il y a (au mieux : parfois la faille est là où les yeux ne sont pas) – ce qui reste possible mais fastidieux, selon les points de vue – Morpheus va immédiatement pointer (flag, donc) les données qui ont été impactées ou qui ont subi, notamment, une fuite de données. La plate-forme sécuritaire collecte ainsi bon nombre d’informations comme l’IP-source, l’IP-destination ou encore les données exposées ;

 

 

  • Évolution de Triton (Inference Server), le système de modèle de requêtes fonctionnant sous IA. Nvidia présente “megatron triton” : il est annoncé que pas moins d’un trillion de modèles ne prendront que “3 à 4 mois pour fonctionner sous Selene” pour un temps de réponse équivalent à 1 seconde… pour 16 requêtes lancées en simultanées, assure Nvidia. Cerise sur le (gros) gâteau, Nvidia n’est pas peu fier d’annoncer un serveur dédié aux opérations de Triton qui pourra presque tout faire ou tout interpréter en code (TensorFlow, Pytorch, ONNX, OpenVINO, TensorRT, C++ / Python personnalisé…) depuis ses nombreux GPUs et son CPU sous architecture x86. Sous Megatron, 8 secondes sont nécéssaires pour générer une molécule contre 0,3 seconde sous Aerial A100 couplé à la technologie Triton. Nvidia va encore plus loin et plus haut : avec Triton Inference Server, sous SuperPod, on peut décupler cette solution Triton pour “générer des milliers de molécules par seconde” ;

 

  • Avènement du framwork TAO, qui exploite TensorRT “afin d’optimiser un modèle ayant pour cible un système GPU“. Il s’agit d’un ensemble de modèle prédictif qu’il faut construire ou “entraîner” pour que l’IA apprenne et face les choix en découlant. La technologie est illustrée au sein du secteur automobile. Le fabricant, lors de la conférence en ligne, explique que ce qui était impossible à une époque “peut désormais être fait en quelques heures“. Pour la reconnaissance ou traduction vocale, Nvidia annonce l’avènement, également, de JARVIS : reposant sur l’IA, il fera office d’interprète (TAO venant après-coup, par exemple, pour personnaliser l’ensemble en ajoutant du jargon dans un lexique ou une thématique précise) avec un temps record (100 milli-secondes) pour “comprendre et répondre plus rapidement qu’un clignement d’yeux“. L’IA a écumé 1 milliard – en terme de socle de départ – de pages de texte et 60 000 heures de textes intégrant plusieurs langages ainsi que des caractères variés tels que les accents, entre-autres. Au final et selon les estimations de Nvidia, le taux de reconnaissance de JARVIS est estimé à 90 %, en terme de réussite. Le traducteur est annoncé (d’autres viendront) compatible en Anglais, Japonais, Espagnol, Allemand, Français et Russe. T-Mobile est cité comme l’un des acteurs technologiques usitant JARVIS mais Nvidia annonce, déjà un nouveau partenaire : Mozilla Common Voice. Enfin, en bout de chaîne, Fleet Command peut être exploité : il s’agit d’un autre composant sous la coupe de l’intelligence artificielle permettant d’établir ou d’envisager (prédiction) des modèles, ici, en les organisant. L’ensemble est assurée chiffré de bout-en-bout (enclave) concernant le transfert de ces commandes vers les nuages. Accenture, BMW et Siemens Digital Industries sont cités comme étrennant déjà Fleet Command qui est certifié EGX. Des exemples concrets sont donnés comme l’analyse des voitures, de certains composants (cannettes) voire, dans certaines entreprises ou hôpitaux – un exemple est donné pour les besoins en oxygène supplémentaires, en terme de prédiction – l’analyse des comportements humains en établissant des modèles pour une personne donnée (tête, corps, bras, sourire…). Un suivi télémétrique censé permettre d’améliorer la productivité de l’établissement en question tout en scrutant les allers et venues des employés ou de leur méthodologie qui viendront alimenter ou composer le fameux “entraînement” de TAO ;

 

  • Avènement de Merlin, un nouveau framework pour station de travail end-to-end open-source : toujours à coup d’IA, il s’agit d’un outils permettant d’améliorer la pertinence des clics-utilisateur au niveau des recommandations et suggestions de contenus. Il s’agit ni plus ni moins des contenus relatifs ou les “vous pourriez aimer” par exemple. Nvidia a conçu un framework dédié aux professionnels qui pourront l’instiller dans des contenus publicitaires ou relatifs inter-site pour personnaliser ce type d’encart. Un outil résolument pour le professionnel qui imagine un internaute au comble du bonheur à la vue de ces contenus ;
  • Avènement de Maxine, un SDK permettant d’agrémenter ses vidéos ou contenus directs du moment (visio-conférences, réseaux sociaux “live“) avec des filtres ou effets spéciaux : “effets vidéo, effets audio et réalité augmentée (RA) – sont hautement optimisés et incluent des fonctionnalités modulaires qui peuvent être enchaînées dans des pipelines de bout en bout pour offrir les meilleures performances possibles sur les GPU, à la fois sur PC et dans les données centres. Maxine peut également être utilisé avec NVIDIA Jarvis, un SDK pour la création d’applications d’IA conversationnelles, pour offrir des capacités linguistiques de classe mondiale telles que la transcription et la traduction”, indique le communiqué.

 

  • Évolution de Clara Discovery, la suite de librairie pour la recherche dans le domaine des narcotiques ou drogues : avènement de quatre nouveaux modèles via MegaMolBART (génération de la composition bio-moléculaire), ATAC-Seq (décortication des cellules épi-génétiques rares et isolées), AlphaFold1 (modèle de prédiction en 3D pour visualiser ou extraire une protéine d’une séquence d’acides aminés) et GatorTron (en partenariat avec l’UF Health qui a collecté et conservé 50 M d’enregistrements ou d’interactions basés sur 2 M de patient(e)s COVID-19, le modèle prédictif sert a dégager des conclusions suivant le statut de la maladie, pour aider, par exemple les soignants qui se serviraient donc, en théorie, de ce modèle hypothétique pour appliquer de vraies décisions…). Couplé avec la solution DGX SuperPod – Cambridge-1 – ces modèles sont déjà étrennés par divers acteurs majeurs prenant part, actuellement, aux recherches autour de la COVID-19 : “parmi les premières sociétés pharmaceutiques à exploiter Cambridge-1 pour la recherche figurent GSK et AstraZeneca. En outre, des chercheurs du Guy’s and St Thomas ’NHS Foundation Trust, du King’s College London et d’Oxford Nanopore Technologies prévoient de tirer parti du système“, indique le communiqué de l’époque, en Octobre 2020 et relatif au DGX SuperPod. Depuis, Jensen Huang confirme de nouvelles évolutions comme, en 2020, l’avènement d’un test COVID-19 produit par Oxford Nanopore et nommé LamPORE. En lien direct avec l’actualité, Nvidia veut montrer qu’il participe à l’effort pandémique via les travaux de Nanopore qui a mis en place plusieurs modèles de prédiction via sa technologie, notamment “Medaka” un modèle qui “lit le code et détecte les variants génétiques“. Au final et selon les images avancées par Nvidia, 99,9 % de détection serait effectif sous la coupe de ces “nouveaux algorithmes deep learning“. Pharma, également, a confirmé adopter (BioHive-1) la solution DGX SuperPod de Nvidia ;
  • Nouvelle pile ou plate-forme : nommée Nvidia EGX, elle sera “est compatible avec toutes les infrastructures Kubernetes  (ndlr : sous VMware Tanzu) disponibles dans le commerce, est une plate-forme idéale pour les antennes permettant des appareils basse consommation, toujours allumés et hautes performances, remodelant l’industrie des télécommunications“, indique le communiqué officiel ;

 

 

  • Donnée quantique : Nvidia veut, aussi, montrer qu’il peut rivaliser en Qubits. Après quelques images (issues d’IBM !…) montrant des illustrations d’ordinateurs quantiques et quelques chiffres, le fabricant annonce CuQuantum, une librairie entièrement spécialisée et conçue pour virtualiser ou développer des modèles de circuits quantiques. Bien évidemment, pour les acteurs traitant ce type de donnée, il faudra avoir les ressources en conséquence en terme de GPU et / ou de DGX, souligne Nvidia qui, selon ses tests (benchmarks) et ses solutions DGX éprouvées, permettrait un traitement de la donnée quantique drastiquement réduit, par rapport à un double CPU concurrent : en mode réseau (Tensor), respectivement, 4 jours contre… 9 années.

 

Tout comme Xiaomi, Nvidia image ses évolutions au fil de la vague ; ou plutôt des multiples vagues : la première est dédiée aux opérations informatiques sous la coupe de l’IA, la seconde, axée sur les solutions Cloud (services dans les nuages) dans presque tout les domaines – agriculture, finances, santé, logistique, transport – ambitionne Nvidia. La troisième vague est celle de la connectivité 5G qui obligera à relever “beaucoup de défis” dans le futur. Enfin, la quatrième vague, selon Nvidia, sera robotique : elle concerna les systèmes et solutions autonomes comme la conduite assistée partiellement ou entièrement comme de nombreuses voitures, déjà, le propose, pour ne pas citer, par exemple, les voitures Tesla. De manière plus large, Nvidia annonce ainsi ses plans pour le futur dans le secteur des véhicules autonomes : si, en 2018, un unique Tops était, au maximum, envisagé pour les architectures supportant les technologies dédiées, l’ère 2022 s’amorcera sous Orin, qui pourra gérer un flot de données équivalent à 256 Tops. Tout comme Xiaomi, Nvidia ne veut pas se contenter de fournir les industriels : le fabricant affiche, avec des visuels ambitieux, sa volonté d’intégrer ce type de marché automobile.

 

Le fabricant a, également, mis l’accent sur la cyber-sécurité ; et pour cause : avec toutes les solutions cloud-computing présentées lors de cette keynote, il a bien fallut anticiper ou, du moins, minimiser l’impact des cyber-attaques que pourraient essuyer ce type de dispositif intégrant un flot innombrable de données (pensons, notamment, au SuperPod). On observe, également, une foule d’acteurs technologiques et industriels qui vont s’engouffrer dans des secteurs tels que la 5G ou la données analytiques : Ericsson, Fujitsu, Bentley, Kinetica, Omni-SCI, entre-autres.

 

Alors que les solutions cloud-computing axées intelligence artificielle (Morpheus, JARVIS, TAO ou, entre-autres, les capacités de traitement-éclair de Triton) représentent un torrent d’annonces, cette année, Nvidia annonce déjà que certains produits sont déjà exploités par des entreprises telles que Best Buy, Spotify, T-Mobile, WeChat, Pinterest ou encore GE Healthcare : ce dernier a conçu un électro-cardiogramme reposant sous TensorRT pour avoir les différentes coupes du cœur via une vue en mosaïque. Quant à Spotify, l’entreprise exploite RAPIDS pour proposer de manière plus personnalisée des playlists aux utilisateurs avec une actualisation des données accrue ou rapide, donc… A suivre !

 

 

Source : Nvidia – 6 Avril 2021 – GTC : sujets abordés pour l’édition 2021.




  • 50% J'apprécieVS
    50% Je n'apprécie pas
    Pas de commentaire

    Laisser un commentaire

    ;) :zzz: :youpi: :yes: :xmas: :wink: :whistle: :warning: :twisted: :sw: :sleep: :sg1: :schwarzy: :sarko: :sante: :rollol: :roll: :rip: :pt1cable: :popcorn: :pff: :patapai: :paf: :p :ouch: :oops: :o :non: :na: :mrgreen: :mdr: :macron: :love: :lol: :kissou: :kaola: :jesuisdehors: :jap: :ilovesos: :idea: :houra: :hello: :heink: :grumpy: :fume: :frenchy: :fouet: :fouet2: :first: :fessee: :evil: :dispute: :demon: :cryy: :cry: :cpignon: :cool: :cassepc: :capello: :calin: :bug: :boxe: :bounce: :bluesbro: :bisou: :babyyoda: :assassin: :arrow: :annif: :ange: :amen: :D :??: :?: :/ :-| :-x :-o :-P :-D :-? :-1: :+1: :) :( 8-O 8)

    Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

    Copyright © Association SOSOrdi.net 1998-2021 - v1.7.2