• il y a 9 mois
Spécialiste en réalité virtuelle et technologies immersives, Virteem s’est récemment lancé dans l’aventure de l’IA générative pour accompagner les entreprises. L’idée part d’un constat simple : chaque jour, un salarié perd en moyenne une heure à rechercher des informations déjà existantes. En partant de cette base, l’éditeur de logiciels a mis au point Virteem companion, une IA générative qui permet de centraliser tous les documents au même endroit pour répondre aux interrogations des collaborateurs de manière fiable et sécurisée.

Category

🗞
News
Transcription
00:00 Implémenter l'intelligence artificielle dans le quotidien des collaborateurs et de manière facile en entreprise, est-ce que c'est possible ?
00:11 Oui, nous répond mon invité Kevin Soller. Bonjour Kevin.
00:14 Bonjour.
00:15 Alors vous êtes l'auteur de Comment j'ai sauvé ma boîte.
00:19 Effectivement, ce n'est pas le sujet du jour.
00:21 Ce n'est pas le sujet du jour, mais je dois dire que c'est une lecture intéressante à laquelle je me suis attelée il n'y a pas longtemps.
00:26 C'est un hasard, je vous reçois pour un autre sujet.
00:29 Vous êtes entrepreneur dans la réalité virtuelle.
00:31 Vous êtes Business Angel, le CEO de Virtim, qui est une plateforme qui permet d'organiser des visites virtuelles pour le secteur de l'immobilier.
00:39 Et aussi ancien sportif de haut niveau.
00:44 Je vais y arriver.
00:46 Mais si je vous invite aujourd'hui, c'est parce que vous nous dites moi, j'ai trouvé une façon d'intégrer l'IA dans l'entreprise qui est simple.
00:55 Est ce que d'abord, cette IA vous a permis de sauver une boîte ou permettrait de sauver des entreprises?
01:00 Alors, elle ne nous a pas permis de sauver une boîte.
01:01 En tout cas, elle nous a permis de gagner beaucoup de temps.
01:03 Puisque nous, on a eu un sujet très simple l'année dernière.
01:05 Alors, à l'ère de l'IA, c'est très tôt.
01:08 Finalement, il y a un an, il y a un an, on n'en parlait pas, même si ça existait déjà.
01:12 J'ai pris mes collaborateurs. Je leur ai dit aujourd'hui, y a t il des tâches que vous trouvez rébarbatives ou vous n'avez pas de valeur ajoutée et que vous aimeriez qu'on puisse avec une baguette magique solutionner ou en tout cas automatiser?
01:21 On a passé une journée à brainstormer avec plein de méthodes, notamment Kanban, etc.
01:25 Et on a eu un point de clé qui était de se dire que toute ce qu'on appelle la knowledge base, la base d'intelligence de l'entreprise, les procédures d'onboarding, la formation, ces éléments là qu'on a, qui sont souvent documentés dans un PDF.
01:37 Et bien, plutôt que d'aller chercher cette information, puisque l'humain est généralement assez flémar de manière générale, on se dit on va aller demander à des collaborateurs s'ils ont la réponse.
01:47 C'est plus simple, sauf qu'en fait, déranger un collaborateur, ça l'empêche de continuer ce qu'il est en train de faire.
01:52 Nous, il faut qu'on aille chercher un collaborateur qui soit disponible. À l'ère du télétravail, c'est compliqué. On n'a pas toujours ses collègues qui sont à côté de nous, etc.
01:58 Donc on s'est dit imaginons demain l'intelligence artificielle puisse nous aider là dessus. Comment ça marche?
02:02 Comment ça marche? De manière assez simple. Imaginez une boîte dans laquelle vous mettez toute cette base de données, la knowledge base de l'entreprise sous forme de PDF, de manière très simple.
02:10 Et vous interrogez cette base sous forme de tchat en lui posant une question. J'ai perdu mon badge pour aller à la cantine. C'est quoi la procédure?
02:17 Je veux déposer un congé. Comment ça marche? Ou au contraire, je suis banquier, par exemple. Je n'ai plus l'information sur la dernière législation autour du prêt in fine.
02:25 Donnez moi l'information. - Vous voulez dire quoi? Confier toutes ces informations à un tchat GPT, par exemple? Des informations de l'entreprise?
02:31 - Une excellente question. Surtout pas un tchat GPT. Pourquoi? Parce que tchat GPT est un player américain. - C'est pas anodin.
02:36 - C'est pas anodin. On ne veut pas que les données fuites. On le sait puisque récemment, l'IA Act a été acté et on veut justement que tout ça reste en France.
02:44 Alors comment ça marche? Nous, on s'est dit on va développer notre propre système pour que ça reste en France et qu'il n'y ait pas de fuite de données.
02:49 La fuite de données, on l'explique à deux niveaux. Un, à l'externe, c'est à dire qu'on ne veut pas que ça parte chez les Américains, les Chinois ou n'importe où pour que ce soit réutilisé.
02:57 Surtout pas. Et à l'intérieur du modèle. Ça veut dire quoi? Il y a eu des expérimentations faites sur les modèles existants qui ont testé de rendre un modèle, par exemple, antisémite, raciste, sexiste, etc.
03:09 Et on peut le faire très rapidement. Ça, ça veut dire ça se fait de la manière suivante. On pose des questions pour orienter les réponses suivantes du modèle.
03:15 Donc, on ne veut pas de la fuite de données à l'intérieur du modèle, si je le simplifie. Du coup, on s'est dit on va faire une espèce de bunker d'IA pour que ça ne sorte ni à l'externe, ni à l'interne.
03:24 Du coup, cette IA n'est pas linkée à Internet. Elle est linkée uniquement à la base de données de l'entreprise, ce qui fait qu'elle ne peut pas aller raconter n'importe quoi.
03:32 Et au contraire, on ne peut pas lui faire dire n'importe quoi. C'est là où c'est très important. Et quand vous dites facile à implémenter, c'est à dire ça consiste en quoi?
03:40 Quelle procédure? Un chat et vous mettez vos PDF dedans et ça s'arrête là. C'est extrêmement simple pour le collaborateur. C'est un chat. Il pose les questions sur le chat.
03:46 Il a ses réponses en temps réel. Mais pour l'entreprise, si elle veut implémenter cette solution, qu'est ce qu'elle doit faire? Rien. On lui met à dispo la boîte.
03:54 Elle met ses documents dedans et ça s'arrête là. Sachant que ces documents, on sait qu'ils sont déjà présents dans l'entreprise. C'est obligatoire aujourd'hui sur notamment le DURP, sur la sécurité ou les process de formation.
04:03 On en a tous. Donc, il suffit juste de les mettre dedans. Il n'y a même pas les ordonnées. En fait, il y a le fait naturellement, c'est l'avantage.
04:09 Et vous partez de quel modèle de langage? Alors le LLM sur les technologies d'open AI. Est ce que c'est ce modèle que vous avez choisi?
04:18 Non, on a choisi volontairement notre modèle français Mistral. Maintenant, on se garde la possibilité potentiellement de le changer demain.
04:25 S'il y avait un nouveau player qui venait, c'est un petit peu comme du tuning. Si on changeait les roues d'une voiture, finalement, c'est aussi simple que ça.
04:31 De notre côté, on a volontairement préparé tout le modèle autour de ça. Donc, il est français. Il était berger en France et nous, toute la couche qu'on a développé autour de SASS pour que nos clients
04:41 puissent voir en temps réel les documents qu'ils ont, les types de questions qui sont posées, s'il y a une réponse ou pas. Tout ça, ça a été développé aussi en France et ça reste en France.
04:48 Et un point important, il est collaboratif. Pourquoi collaboratif? Imaginez que vous posez une question. La réponse qu'on vous donne, elle est semi complète ou au contraire, il n'y a pas de réponse.
04:57 Et vous, vous pensez détenir la bonne réponse. Vous pouvez la suggérer au modèle, mais important, elle ne se valide pas automatiquement. Elle est envoyée dans le bac.
05:04 La réponse ne modifie pas le modèle. C'est un modèle qui est figé. Tout à fait. C'est ce qu'on dit. Pas de fuite de données dans le modèle. Très important aujourd'hui pour rester inclusif dans les réponses.
05:14 Et donc, comment vous le faites évoluer? Alors, on le fait évoluer nous, par nos équipes. On a des chercheurs volontairement qui travaillent sur ce LLM initial et tout ce qu'on appelle le fine tuning
05:23 pour faire en sorte que le modèle soit justement entraîné sur des problématiques qui, en général, sont onboarding, formation, ticketing ou aide à la force commerciale.
05:30 Donc, vous avez développé une activité connexe. Exactement, exactement. Virtual. En fait, à la base, c'est le pôle content, VR, métavers, visite virtuelle et maintenant le pôle.
05:40 Il y a, sachant qu'à la base, c'est partie d'un postulat. On l'a développé pour nous. On l'a fait tourner pendant un an. On a vu que ça avait des impacts hyper intéressants.
05:47 On en a parlé à nos clients, mais vraiment au détour d'une conversation opportune, je dirais. Et finalement, on nous a dit mais ce modèle serait hyper intéressant dans notre entreprise.
05:55 On travaille essentiellement avec des grands groupes. Et quand on a entendu ça une fois, deux fois, trois fois, quatre fois, on s'est dit finalement, on a peut être un produit.
06:00 C'est intéressant parce que ça montre comment ces technos finalement peuvent créer des nouveaux business aussi. Tout à fait. Une nouvelle verticale chez nous qui, je pense,
06:08 sera la plus importante dès l'année prochaine. Bon, après, la clé, c'est la confiance. C'est ça. C'est vous qui allez voir sur le terrain avec l'expérience comment ça se passe,
06:16 parce que c'est un enjeu très important aujourd'hui quand on utilise ces intelligences artificielles. On a des éléments techniques quand même. On a aujourd'hui la norme ISO 42001,
06:25 plus l'IA Act qui permet de rentrer quand même dans des cases qui, pour l'instant, pas en application, mais on peut tout à fait appliquer quand même les prérogatives.
06:31 Au contraire, si vous le faites, tant mieux. Merci beaucoup, Kevin Solaire, CEO de Virtim. On enchaîne avec notre grand rendez-vous sur la diversité dans Spartac.

Recommandations