Les IA génératives, un effet de mode ? Si elle est au centre des discussions depuis plusieurs mois, l’intelligence artificielle est utilisée depuis bien longtemps pour améliorer les performances. C’est désormais au tour de la plateforme Snowflake de lancer son nouveau modèle de langage, boosté à l’IA générative. Baptisé Document AI, il est construit à partir de la plateforme Applica, et aide les clients à mieux comprendre leurs documents et ainsi s’emparer de tout le potentiel de cette IA générative.
Category
🗞
NewsTranscription
00:00 Alors je suis en compagnie d'Edouard Beaucour, vous êtes le directeur général France et vice-président
00:11 Europe du Sud de Snowflex. Snowflex c'est un peu une star française, mais enfin j'exagère,
00:15 c'est quand même une entreprise californienne qui est spécialisée dans l'hébergement des données
00:18 dans le cloud, mais qui a été créée en 2012 par deux français avec un succès retentissant. Et alors
00:24 là l'actualité de Snowflex et bien c'est la naissance d'un nouveau modèle de langage, un LLM, large
00:31 language model comme on dit en anglais, évidemment boosté à l'IA générative. Donc ma question
00:38 première c'est est-ce qu'on est là dans un effet de mode ? Est-ce qu'on a besoin d'autant de modèles
00:43 d'IA générative différents ? Pourquoi Snowflex propose ceci, cette nouvelle IA boostée à l'IA
00:50 générative ? Parfait, écoutez déjà je suis ravi d'être avec vous pour parler de ce qui semblait
00:54 être l'épicentre des discussions depuis quelques mois et depuis le début de l'année calendaire.
00:58 Et mon premier principe il serait essayer de remettre un petit peu les choses à leur place
01:04 quand on parle d'intelligence artificielle, de gen AI et donc d'intelligence artificielle
01:10 générative et de large language model. Donc nous sommes précisément dans une révolution qui est
01:17 probablement une des plus fortes que la tech ait connue depuis ces 40 dernières années,
01:23 mais comme toute révolution elle a trouvé sa source dans quelque chose d'assez naturel et qui
01:28 n'est pas arrivé du jour au lendemain. Donc ça fait déjà 30-40 ans que les hommes se demandent
01:33 comment interagir avec les faits qu'on stocke dans des systèmes tout simplement. Et c'est pas nouveau,
01:39 on a parlé dans les années 70-80 de langage qu'on appelait "common object business language" donc
01:45 on essayait déjà de parler avec des machines, les gros systèmes IBM si vous vous souvenez.
01:49 Et puis ensuite IBM encore avait mis au point un langage qui s'appelait le SQL qui permettait aussi
01:55 en langage naturel pour peu qu'on parle très bien anglais d'échanger, d'interagir avec les faits qui
02:01 étaient stockés dans des bases de données. Et aujourd'hui tout s'accélère donc c'est pour ça
02:06 qu'on parle vraiment d'un moment d'inflexion, de révolution. Tout s'accélère parce que ce qui est
02:12 la Gen AI est finalement de la mathématique boostée avec des modèles de mathématiques et des modèles
02:21 d'apprentissage par les machines préentraînés et déployés sur des machines plus puissantes que
02:28 ce qu'on n'a jamais vu. Préentraînés à comprendre ce qu'on leur dit en fait c'est ça ? Tout à fait,
02:32 préentraînés à comprendre ce qu'on leur dit, à se nourrir des faits qui ont déjà été mis en place,
02:36 des formules mathématiques qui ont déjà fait leurs calculs et ainsi de suite. Donc là on parle de
02:42 modèles fondamentaux. Mais alors la deuxième question c'est donc pourquoi ce besoin de
02:47 multiplier les modèles ? Alors pourquoi on multiplie les modèles ? Les modèles déjà par rapport à ce
02:52 à quoi on a, quels sont les sujets qu'on adresse doivent être différents. Le LLM typiquement ce
02:57 sont ces modèles fondamentaux basés sur les mots seulement. Dès qu'on va commencer à s'adresser
03:02 aux images, à des données synthétiques qui ont été reproduites depuis des données de base,
03:08 dès qu'on va regarder du texte et autres ou de l'audio on va s'adresser avec des nouveaux modèles.
03:12 Et puis les modèles ils doivent être aussi pris par rapport au contexte dans lequel on est. Donc
03:17 quand on veut étudier des choses liées à la logistique d'une entreprise ça va pas être les
03:21 mêmes modèles que lorsqu'on est sur des essais cliniques pour accélérer du texte et du code par
03:29 exemple. Donc il faut des modèles beaucoup plus spécialisés c'est ça que vous nous expliquez.
03:34 Alors la troisième question c'est la préoccupation. On s'interroge aujourd'hui
03:38 beaucoup sur ce qu'il advient des données qui sont collectées par ces IA génératives.
03:42 Tout à fait. Donc ce qu'il faut comprendre c'est que dans l'IA générative il y a trois
03:47 grands blocs. Il y a les datas, donc les données. Il y a les modèles fondamentaux dont on a parlé
03:52 qui comme vous le soulignez se multiplient. Et puis il y a les prompteurs, ce qui est l'interface
03:57 entre vous et tous ces systèmes. Alors on a parlé beaucoup de GPT qui a été le prompteur que tout
04:02 le monde a vu mais il y en a plein plein plein des prompteurs. Et donc une de nos missions chez
04:06 Snowflex c'est de faire en sorte d'amener une capsule de gouvernance et de sécurité sur tous
04:11 ces aspects là. Nous notre métier de base c'est d'aider les clients à sécuriser, à gouverner,
04:15 à traiter leurs données à très grande échelle. Et donc un de nos principes de base c'est d'amener
04:20 des modèles qui sont bien souvent pas les nôtres, amener les modèles typiquement de Azure AI,
04:24 donc OpenAI et tous ces modèles qui sont nés de chat GPT, mais aussi bon nombre d'autres modèles.
04:30 On a un partenariat très fort avec Nvidia qui est un gros fournisseur de modèles, mais aussi les
04:34 modèles de nos clients dans une capsule de sécurité où les données sont seule, je dirais, propriété du
04:43 client et où tout le monde ne peut pas voir ce qui se passe. Merci beaucoup Edouard Beaucour,
04:49 c'était trois questions sur ces nouveaux modèles d'IA génératives. Edouard Beaucour, je rappelle
04:53 que vous êtes le directeur général France et le vice-président Europe du Sud de Snowflex. Merci
04:58 Merci beaucoup.
04:59 Merci à vous.
05:00 Et c'est lors de la grande interview avec la Fédération française des télécoms.