• il y a 2 mois
Mardi 24 septembre 2024, SMART TECH reçoit Jérôme Valat (CEO et cofondateur, Cleyrop) , Murielle Popa-Fabre (experte en traitement automatique du langage, Conseil de l'Europe) et Yann Padova (avocat associé, Wilson Sonsini)

Category

🗞
News
Transcription
00:00Pour ce grand rendez-vous de l'IA dans Smartech, j'ai convié Jérôme Ballac, cofondateur de Clérop,
00:09Clérop plateforme data et à clé en main conçue pour démultiplier simplement les usages autour
00:15de la donnée. Bonjour Jérôme. Bonjour. Avec vous Muriel Popafab, vous êtes experte au Conseil
00:21de l'Europe, vous intervenez sur les questions de réglementation de l'intelligence artificielle et de
00:25protection des données. Bienvenue également Muriel et puis à côté de vous Yann Padova, ancien de
00:32l'ACNIL et avocat aujourd'hui au barreau de Paris et Bruxelles, associé chez Wilson. Bienvenue
00:38également Yann. Alors je vous propose qu'on démarre avec ce premier sujet, c'est une enquête européenne
00:44qui a été ouverte sur l'utilisation des données personnelles des utilisateurs européens pour
00:49développer un des modèles d'intelligence artificielle de Google, Palm 2, qui date quand même de l'année
00:55dernière. Alors cette enquête doit déterminer si Google a respecté les obligations qu'elle aurait
01:00pu avoir de réaliser notamment une étude d'impact destinée à garantir la protection des droits et
01:06libertés fondamentaux des individus. Muriel, ma question en fait c'est quoi cette étude d'impact ?
01:12Alors les études d'impact c'est un sujet assez compliqué et qui en train vraiment de prendre
01:18forme actuellement, notamment au Conseil de l'Europe pour comprendre quel est l'impact sur
01:26les droits fondamentaux de l'utilisation des outils à base d'intelligence artificielle. Et
01:32d'une certaine façon il faut dire qu'on sait depuis désormais quatre ans qu'on peut extraire
01:38des signatures d'adresse mail des modèles de langage. Donc c'est pas nouveau du modèle de
01:44Google. Il y a des études qui sont en science ouverte, qui ont été publiées. Et cette recherche
01:54de fond de comment on extrait des données qui sont mémorisées à l'intérieur des modèles de
01:59langage, et plus particulièrement de l'architecture transformer, existe depuis 2018-2019. D'accord,
02:04donc ça veut dire que les grands acteurs de l'IA aujourd'hui ont des outils pour réaliser leurs
02:08études d'impact ? Il y a des outils pour savoir et pour extraire de l'information des LLM.
02:14Juste un point, c'est une étude d'impact, pour préciser ce qu'a dit Muriel, au sens du RGPD.
02:19Savoir que c'est une étude qui doit mettre en balance les droits et libertés des personnes et
02:25l'intérêt commercial et business de l'entreprise, et arriver justement à montrer qu'il n'y a pas de
02:29disproportion et que les droits et libertés sont maintenus. Donc c'est une obligation du RGPD et
02:33c'est l'autorité irlandaise qui lance l'enquête parce que l'établissement principal de Google
02:37est en Irlande. La commission de protection des données personnelles irlandaise travaille pour
02:45l'ensemble des CNIL européennes. Elle a cette compétence au niveau de l'Europe et donc c'est
02:48une enquête qui est assez limitée dans son champ parce que c'est une enquête qui est quasi
02:51documentaire. Il y a une obligation de faire une étude d'impact au sens du RGPD. Est-ce que Google
02:55l'a bien faite et est-ce que les droits et libertés des personnes sont bien balancés et sont respectés ?
03:01Donc là on est sur un règlement, vous avez dit le RGPD, qui est donc bien avant l'IACT. On n'est pas sur une
03:08obligation tout à fait récente. Vous dites aussi qu'on a déjà des indicateurs. Pourquoi cette enquête
03:14se porte spécifiquement sur Palm 2 ? Est-ce que Gémini, est-ce que les nouveaux modèles d'IA vous
03:19semblent poser moins de problèmes ? On n'a pas eu le temps de regarder de près encore ?
03:24Il y a d'autres enquêtes de l'autorité irlandaise sur d'autres grands acteurs américains qui ont leur
03:29établissement principal en Europe, en Irlande. Meta, également l'objet d'une enquête. Google maintenant.
03:37Il y en a sûrement parce que tout n'est pas public. Mais je sais qu'il y en a d'autres.
03:40Il faut dire aussi que les études d'impact viennent de plusieurs pays, viennent de ratifier la convention cadre du
03:51Conseil d'Europe le 5 septembre, dont Israël, les Britanniques et aussi les Etats-Unis. Et à l'intérieur des obligations
04:02qui sont pour protéger de la discrimination, pour protéger les droits fondamentaux, l'état de droit et la démocratie,
04:08il y a ce type d'instrument et des outils de droit de recours si on est discriminé. Donc c'est quelque chose qui est
04:16présent aussi dans cette convention qui vient d'être ratifiée. Et qui s'applique au-delà de l'Europe.
04:22Qui s'applique au-delà de l'Europe. C'est très intéressant. C'est un message très fort aussi qu'Israël ait signé et que les Etats-Unis aient signé.
04:31La question que je voulais vous poser, Jérôme, c'est qu'aujourd'hui, puisque votre job en l'occurrence, c'est de fournir des outils d'IA
04:39aux entreprises qui veulent s'y mettre. Pour brasser leurs datas, en sortir de la donnée intelligente. Cette préoccupation, justement,
04:49de comment ont été nourries ces modèles de langage que vous, vous brassez, elle est présente ? Est-ce que vous avez une responsabilité, vous,
04:57quand vous êtes aussi un distributeur, finalement ?
04:59Oui, le risque, il est réel. Et on en parlera peut-être plus tard. Mais l'IA vient, j'allais dire, un peu permettre d'échelonner,
05:07de différencier les différentes étapes d'usage d'un modèle. Et donc, effectivement, avec des responsabilités qui vont être attribuées, distribuées à chaque étage.
05:15Mais s'il y avait un esprit taquin, ce que je n'ai pas, je m'étonne un peu aujourd'hui qu'on semble découvrir un peu la lumière.
05:25On a laissé, pour pas dire même offert, le marché numérique européen aux Américains. Alors qu'on a une décision de Cour européenne de justice en 2015
05:35qui nous disait déjà qu'il fallait être un peu prudent. Et donc aujourd'hui, ils ont les données européennes. Je crois que c'est 92% des données des entreprises européennes
05:44qui sont détenues par l'IA. Et aujourd'hui...
05:47Sur l'hébergement, vous parlez de l'hébergement.
05:49Oui, sur l'hébergement. Et donc aujourd'hui, sur tous ces modèles-là, l'efficience de ces modèles va être directement dépendante du volume et de la qualité des données
05:56pour les entraîner. C'est quand même très tentant d'utiliser les données que vous avez à votre disposition pour le faire. Donc maintenant, on va devoir de nouveau,
06:03c'est un peu une spécialité européenne, courir un peu contre la montre pour essayer de récupérer des dérives que, malheureusement, on n'a pas anticipées.
06:10Donc là, ça passe par, puisque là, c'est la question de l'hébergement des données, par repenser notre marché du cloud. Mais certains disent que cette bataille est perdue.
06:20Alors oui, elle est très clairement perdue aujourd'hui. La question, c'est de savoir si elle est perdue définitivement. Et la question, c'est de savoir,
06:26après les conséquences de cette défaite, et de savoir si on continue de les accepter ou si, à un moment donné, on décide qu'effectivement, on va devoir faire marche arrière.
06:34Mais ces données, elles sont anonymisées quand elles sont, justement, hébergées sur des clouds pour des utilisations d'entraînement d'IA ?
06:43Pas forcément anonymisées. Et il y a une autre bataille qui se mène en sous-main à l'intérieur des entreprises. Les autorités de protection des données européennes
06:52ont reçu, dans la dernière année, beaucoup de lettres de la part d'employés qui ont vu arriver des assistants IA achetés sur étagère par leur employeur.
07:00Et on ne leur a pas demandé de valider les conditions d'utilisation. Donc, il y a quelque chose qui se passe. Je discutais la semaine dernière avec des représentants des syndicats internationaux
07:10qui se passent sur la question de ce qu'on appelle en bon français le Workspace Data Surveillance, la surveillance data à l'intérieur des entreprises,
07:22qui est un vrai sujet à la fois au niveau de l'employeur et à la fois au niveau des données et de comment elles sont hébergées, et surtout des conditions d'utilisation.
07:31Parce que c'est ça qui détermine ce qu'on peut en faire.
07:33On valide très vite les conditions d'utilisation quand même, quand elles existent.
07:38Pour moi, il y a deux questions. Il y a l'hébergement, effectivement, où la puissance des clouds étrangers américains est telle que le coût d'entrée et les investissements d'entrée ne sont pas rattrapables.
07:47Après, il y a l'usage des données.
07:48Ça, c'est notre autre sujet.
07:49Il y a l'usage des données. Et moi, il y a le rapport Draghi qui est sorti il y a deux semaines qui dit qu'en termes d'innovation, l'Europe est en train de décrocher aussi.
07:57Peut-être, et ça, c'est l'ancien spécialiste du droit des données qui parle, peut-être parce qu'on a un cadre qui est trop restrictif sur l'utilisation des données et sur l'innovation.
08:06Il invite aussi à réfléchir sur le fait qu'en Europe, moi qui suis à Bruxelles, je vois bien, on aime réguler, on aime même réglementer, peut-être un peu trop.
08:13Et que l'innovation, elle ne s'articule pas toujours très bien.
08:16Je ne vous ai pas vu dans les signataires de la tribune du jour.
08:20Non, mais j'en ai fait un certain nombre. J'ai écrit dans des revues très savantes là-dessus depuis une dizaine d'années.
08:25L'équilibre entre l'innovation et la protection des données en Europe, c'est peut-être un peu trop déplacé dans un sens.
08:32Ce n'est pas que moi qui le dis. Moi, je l'ai dit depuis longtemps. Draghi le dit aussi aujourd'hui.
08:36Et que l'utilisation, c'est ça où la richesse de la donnée va être révélée.
08:41Et donc, c'est pour ça que les gros volumes sont nécessaires, mais aussi qu'on puisse faire des tests, etc.
08:44Et ça, aujourd'hui, c'est plus compliqué.
08:46Parce que là, ce que nous dit cette lettre ouverte parue jeudi dans plusieurs quotidiens nationaux,
08:51avec une réglementation fragmentée, l'Union européenne prend le risque de passer à côté de l'ère de l'IA.
08:56Alors là, on est quand même dans cette difficulté de trouver la juste mesure entre la protection des données personnelles,
09:06s'assurer de la manière dont ces modèles d'intelligence artificielle sont nourris et utilisent les données personnelles ou non,
09:14et puis aussi laisser l'innovation, laisser des entreprises d'IA émerger,
09:20qui, elles, ont peut-être un petit peu de retard et n'ont pas déjà siphonné toutes les données,
09:25comme ont pu le faire les grandes entreprises américaines.
09:29Muriel, comment vous réagissez à cette tribune ?
09:32La question de la compétitivité est au cœur du nouveau mandat de la Commission.
09:36Donc, il y a une très claire prise de conscience au niveau européen que la question de la souveraineté numérique est centrale,
09:42non seulement d'un point de vue réglementaire, mais aussi d'un point de vue de compétitivité.
09:46C'est ce qui ressort du rapport Draghi, mais c'est aussi ce qui ressort des deux dernières années de négociations du IACT.
09:51Il y a une prise de conscience généralisée sur la mutualisation de la puissance de calcul à travers les différents pays européens.
09:58Mistral a pu entraîner sur le supercalculateur italien.
10:01Donc, il y a quelque chose qui se passe au niveau de l'accès à la capacité de calcul.
10:05Il y a quelque chose qui est en train de bouger au niveau de créer des data hubs par verticale industrielle,
10:12qui devrait améliorer aussi l'arrivée des produits, c'est-à-dire pas simplement du modèle de fondation,
10:18mais de quelque chose qui a un impact sur l'industrie.
10:21Parce que la question de la compétitivité, c'est ça aussi.
10:24Donc, je pense que de façon générale, du point de vue des données et du calcul, cette prise de conscience est là.
10:32Un énorme investissement est en train d'arriver et des appels à projets ont été lancés au niveau de la Commission.
10:39Et l'organisme qui est censé implémenter l'EIAct au niveau européen, l'EIAffice à l'intérieur de la Commission,
10:45a vraiment une double casquette de promouvoir l'innovation et d'implémenter l'EIAct.
10:50C'est un cocktail qui trouve l'équilibre entre ces deux pôles de protection des citoyens européens et d'innovation fondamentale.
11:02Et c'est quelque chose qui joue sur l'échiquier géopolitique.
11:05Et cette question de compétitivité, elle se joue aussi au niveau de la manière dont sont fabriqués ces modèles d'IA.
11:15Parce qu'il y a une mission qui a été confiée à Alexandra Ben Samoun pour éclairer le gouvernement sur ses obligations des fabricants d'IA.
11:22A dire quelles sont ces données utilisées pour entraîner leurs modèles.
11:26Le rapport, on l'attend plutôt d'ici à la fin de l'année.
11:28C'est là que va se jouer aussi la capacité d'être compétitif ou non ?
11:33Surtout va se jouer la question de trouver ce juste équilibre.
11:36Parce que l'EIAct n'écrit pas quel est le juste équilibre.
11:39C'est pour ça qu'il y a besoin d'un rapport qui explique et qui interprète la loi.
11:45Il faut dire que le deuxième champion de LLM, vient de déclarer il y a une dizaine de jours à l'alpha l'allemand.
11:52Deuxième parce que mon coeur est français.
11:55Qui dit que ce n'est plus un business model de faire des LLM souverains.
12:00Et qui s'est retiré de la course.
12:02Donc il y a un vrai sujet sur la question des données.
12:05Et la qualité des données.
12:07On va arriver à notre deuxième sujet.
12:09Je voulais vous faire réagir en particulier Jérôme.
12:12Est-ce que lancer une jeune pousse d'intelligence artificielle aujourd'hui, c'est mission impossible ?
12:17C'est difficile de répondre à cette question.
12:21Parce que c'est un papier dans La Presse, qui est un média canadien.
12:25Qui elle apporte une réponse assez catégorique.
12:30Oui c'est impossible.
12:32Avec des chiffres qui sont cités du patron d'Entropique.
12:35Les modèles apparus en 2024 ont coûté au bas mot 1 milliard de dollars.
12:39Ceux qu'on verra apparaître en 2025-2026 coûteront 5 à 10 milliards.
12:43Pour une start-up qui se crée, c'est un peu compliqué d'avoir ces moyens de financement.
12:46Oui on peut dire ça comme ça, c'est compliqué.
12:48Donc impossible ?
12:50Oui mais si on regarde par exemple, on a une aventure créée il y a deux mois aux Etats-Unis.
12:55Un modèle de super intelligence.
12:57Qui en plus arrive avec un positionnement un peu vertueux.
12:59Oui on va en parler aussi.
13:01Qui vient après deux mois d'existence de lever un milliard.
13:04Donc pour l'instant, l'écosystème de financement autour de ces sujets a l'air de suivre l'inflation des investissements nécessaires.
13:12Donc pour l'instant, je ne sais pas vraiment si on a déjà touché la limite.
13:16Et je rajouterai en plus à ça qu'il faut prendre conscience que dans ces énormes levées de fonds autour des modèles.
13:21Il y a le problème des infrastructures GPU derrière.
13:24Qui coûtent une fortune aujourd'hui.
13:26Du fait que le marché est très pénurique, avec peu d'acteurs etc.
13:28Et que si jamais d'aventure on arrive avec moins de pénurie etc.
13:32On va avoir aussi des coûts d'infrastructures qui vont baisser.
13:34Donc peut-être des investissements moins lourds.
13:37Et puis peut-être qu'un de ces cas, on va se rappeler aussi qu'on a une problématique peut-être écologique derrière.
13:41Et qu'on est en train de créer des monstres énergies vores.
13:44Et que peut-être que si un jour on commence à faire un virage vers des modèles un peu plus raisonnables en termes de consommation.
13:49Là aussi on pourrait avoir une baisse d'investissement.
13:51Donc je trouve que c'est un peu tôt aujourd'hui pour tirer des conclusions aussi catégoriques.
13:56Donc on ne baisse pas les bras tout de suite.
13:58Donc pour être compétitif, le seul choix c'est s'adosser aux géants existants.
14:02Vous dites pas forcément.
14:04Alors si, ça par contre je dis tout à fait forcément.
14:06Mais ce n'est pas du tout une question de moyens.
14:08C'est qu'aujourd'hui, c'est ce qu'a fait Mistral en commençant à travailler avec Microsoft.
14:11C'est quand vous êtes un modèle, quel que soit le pays dans lequel vous êtes.
14:13De toute façon à un moment donné, vous avez le problématique d'infrastructures.
14:16Il vous faut des infrastructures mondiales et capables de passer à l'échelle mondiale pour accompagner les besoins de vos clients.
14:21Aujourd'hui, à part les 3 hyperscalers américains, qui est capable de faire ça ? Personne.
14:25Donc en fait, ils sont effectivement une porte d'entrée vraiment au sens peut-être européen.
14:30On sait ce que c'est, une fois qu'on est marié, c'est compliqué de se séparer dans le numérique.
14:34Ah oui, ça je confirme.
14:36Et donc effectivement, il y a ce risque d'avoir ce phénomène de phagocytage de toute innovation.
14:40Parce qu'à un moment donné, il faut passer par eux.
14:42Sinon, vous ne pourrez pas toucher et servir l'ensemble de vos clients.
14:44Allez, on va regarder ces nouveaux modèles d'IA parce que le temps passe très vite.
14:48Donc vous l'avez évoqué, SAFE, Super Intelligence, qui a levé 1 milliard de dollars pour son IA.
14:54Sur, alors on va en parler, qu'est-ce que c'est une IA sur ?
14:58En tout cas, d'abord, l'information notable, c'est que cette start-up SSI a été co-fondée notamment par Ilya Sutskever,
15:07qui dirigeait l'équipe de super-alignement chez OpenAI et qui a participé au départ de Sam Altman, au départ avant qu'il revienne bien sûr.
15:17Il lui prend le parti de ne pas commercialiser de produits avant d'avoir la certitude que ces systèmes d'IA ne représentent aucun danger pour l'humanité.
15:26On est capable de s'assurer de ça aujourd'hui. Comment on fait ?
15:29Murielle ?
15:31Moi, je pense que si la safety, comprise à l'américaine, qui est en fait une façon d'appeler la gouvernance de ces modèles,
15:39passe par défier le paradigme de la boîte noire, je pense qu'on arrivera à quelque chose qui peut être gouvernable.
15:47Je ne reprends pas la vulgate californienne de l'alignement parce que je pense que le vrai problème, c'est d'avoir de l'observabilité.
15:55Par exemple, Anthropique a dévoilé au mois de mai une étude qui montre combien ils arrivent tout doucement à l'intérieur d'un modèle de langage qui est en production,
16:07de 70 milliards de paramètres, à commencer à comprendre comment l'information est condensée dans le réseau de neurones.
16:14C'est essentiel de gagner cette observabilité pour pouvoir gouverner les sorties, les hallucinations, toutes sortes de problématiques
16:23qui se retrouvent dans la difficulté d'adoption des outils d'IA générative.
16:29Aujourd'hui, comment ça fonctionne quand on entraîne une intelligence artificielle et qu'on s'aperçoit qu'elle donne d'excellents résultats dans certains cas
16:37et vraiment des absurdités dans d'autres ?
16:40On pratique de la correction mais on ne sait pas pourquoi d'un seul coup cette IA se met à être stupide ou super intelligente, c'est ça ?
16:48Oui, on commence à avoir des hypothèses de trous dans les données, de problématiques de représentativité des données,
16:55mais sur le fond, on reste dans une situation où, à l'intérieur du réseau de neurones, la façon dont l'information passe d'une strata à une autre
17:03est compliquée, surtout quand on entraîne des modèles très très grands.
17:06Donc ça a été un proof of concept au printemps, de commencer à comprendre quels sont les motifs d'activation des neurones par l'équipe de l'Entropique.
17:20Parce que juridiquement, on exige une certaine transparence aujourd'hui de la part des algorithmes et donc là, techniquement, c'est impossible
17:29puisque même les fondateurs sont face à une boîte noire.
17:35En droit des données, on fait plus attention à l'effet sur les personnes. Est-ce que ça va avoir un effet négatif sur leur droit ou sur leur vie, etc.
17:42Et dans ces cas-là, plutôt qu'être capable de l'expliquer, il faut aussi être capable de le rectifier, c'est ça le plus important.
17:49Mais c'est vrai que dans un certain niveau de sophistication, comme ça vient d'être expliqué, on n'est pas vraiment capable, c'est la boîte noire.
17:55Donc on va se concentrer sur les effets, les prévenir, essayer d'avoir des mesures de gouvernance pour les limiter a priori et les remédier a posteriori.
18:04Mais ce sont des systèmes qui sont encore en phase d'expérimentation parfois.
18:11Les décisions automatisées, on les a depuis longtemps dans le monde du droit des données, le profil bancaire, le scoring, etc.
18:18Mais là, ça prend des proportions qui peuvent être plus importantes et donc c'est d'autant plus difficile.
18:24Juste, il y a les fournisseurs de modèles, bien sûr. On pense toujours à eux et on en parle beaucoup.
18:29Mais il n'y a pas que dans la chaîne de l'intelligence artificielle. Il y a d'autres rubriques.
18:33On parle des vectors store, des rags, etc.
18:35Et c'est tout l'ensemble de cette combinatoire qui va créer ou pas une efficience ou éventuellement une infraction à certaines réglementations.
18:41Et donc là aussi, on va avoir des chaînes de responsabilité un peu complexes.
18:44Et en tout cas, même pour les éditeurs de modèles, d'arriver à trouver l'origine à un moment donné d'une erreur ou d'une hallucination, c'est extraordinaire.
18:52Ça semble plus simple pour les modèles fine-tunés, en tout cas personnalisés puisqu'ils sont alimentés uniquement de données
18:58décidées de commun accord autour d'une problématique d'une entreprise.
19:03Oui, mais attention parce que vous-même en tant qu'entreprise, par exemple, quand vous allez vous la utiliser,
19:06vous allez charger votre propre contexte de données avec.
19:08Donc dans quelle mesure c'est vous-même qui avez créé l'hallucination, l'erreur ou l'infraction ?
19:13Aujourd'hui, on apprend en marchant.
19:17La Silicon Valley a quand même compris le problème aussi, déjà depuis un an,
19:23en investissant de façon de plus en plus importante au niveau du venture capital dans une strata d'observabilité.
19:29C'est-à-dire que vous avez votre banque de données vectorielle qui est branchée à votre modèle de langage
19:35pour sécuriser que les données qui sont utilisées pour les réponses sont bien les données de votre entreprise
19:40ou les données que vous retenez, les bonnes données pour répondre à vos clients ou à vos employés
19:45si vous l'utilisez pour le management de connaissances.
19:48Mais ajouter cette strata permet de contrôler ce qui ressort de l'application basée sur une générative.
19:57Et cette strata d'observabilité est une très bonne nouvelle pour la gouvernance et la sophistication des métriques
20:03qui sont utilisées à ce niveau-là.
20:05C'est une très bonne nouvelle pour les entreprises et pour la gouvernance
20:08parce qu'ils vont pouvoir savoir jusqu'à quel point le modèle répond bien ou mal à leur consommateur.
20:13Et ça, ça fonctionne ?
20:14Et ça, ça fonctionne.
20:15On va passer à cette nouvelle IA O1 d'OpenAI.
20:22Donc nouvelle série de modèles d'intelligence artificielle qui sont vraiment conçus pour résoudre des problèmes complexes.
20:28On parle de problèmes scientifiques en physique, chimie, biologie
20:32avec des résultats qui seraient similaires à ceux des doctorants.
20:35Il semblerait qu'OpenAI découvre que ces modèles sont aussi super bons en maths et en programmation.
20:43Moi, ça me fait toujours quelque chose quand je comprends qu'un créateur de modèles découvre quelque chose qu'il n'avait pas prévu.
20:51Est-ce qu'on est là, vraiment, vers la super intelligence que tout le monde promet pour les années qui viennent ?
20:59Je vais laisser la chercheuse.
21:02Muriel, là !
21:05On n'est vraiment pas sûr de la super intelligence.
21:10Ce qui est intéressant, par contre, c'est qu'ils insèrent tout plein d'étapes
21:15qui permettent à l'utilisateur de se rendre compte comment on pourrait décomposer sa question.
21:20De façon assez redondante.
21:23Plus on en fait, plus on se rend compte que les étapes sont 5 ou 6 maximum.
21:27Et puis, ça reboucle.
21:29Je pense que c'est une façon d'explorer les possibles.
21:33Mais on est toujours dans cette interface où il y a écrit «thought for 11 seconds».
21:38Donc, ça a pensé pendant 11 secondes.
21:40On est toujours dans cette commercialisation de l'anthropomorphisation qui est très accentuée.
21:46Ce qui est assez fascinant, c'est que ça montre que les entreprises les plus innovantes,
21:50qui sont quelques-unes leaders mondiales, sont engagées dans une course à l'innovation.
21:54C'est-à-dire que non seulement elles sont leaders, mais c'est la condition de leur survie sur le marché.
21:59Moi, je suis très impressionné par la vitesse de lancement des nouveaux produits.
22:03On n'a pas eu le temps de parler de Mistral AI.
22:05Notre Français, avec son premier LLM multimodal, Mistral 12B.
22:11Merci beaucoup.
22:12Merci Jérôme Arvala de Clérope, Muriel Popafab d'Experts au Conseil de l'Europe et Yann Padova de Wilson.
22:18Sans souci. Merci.

Recommandations