Épisode 4 : Un bon set-up technique
Transcription :
(La transcription de cet épisode automatiquement. Il peut y avoir des erreurs. N’hésitez pas à nous en faire par dans les commentaires.)
— Marc — 00:00 :
Cette semaine, je reçois Guillaume Jouffre, ingénieur de formation 50 conseils, notamment chez Oliver Wyman, cofondateur et CO de gringo depuis 2020 C’est une entreprise à mission dont la mission est de construire un tourisme plus durable. Ils viennent de finir une levée de fonds de 1,2 million d’euros. Guillaume est par ailleurs rentré dans le top 200 des créateurs LinkedIn français, d’après favicon à la cent trentième place bonjour.
– Guillaume — 01:08 :
Guillaume, Bonjour Marc.
– Marc — 01:10 :
Alors Guillaume, avant de parler data, est-ce que tu peux nous parler de gringo? Qu’est-ce que vous faites exactement?
– Guillaume — 01:15 :
Alors gringo, c’est une alternative française et coresponsable et équitable aux grands sites de réservation d’hébergement que vous connaissez, hein, Je vais pas les citer booking, Airbnb Oups je les ai cités mais globalement c’est un site de réservation pour réserver en 3 clics, hein. Très simplement, comme sur les grands sites traditionnels, sauf qu’on vient faire une sélection d’hébergement hein, qui est basée sur la qualité de l’expérience et sur les responsabilités des autres. Je pourrais revenir si nécessaire, mais on prend moins de commissions Booking and parce qu’on est dans une logique de juste rémunération des autres et de juste prix. Voyageurs et plus généralement, voilà comme tu l’as dit, on est, on est une entreprise à mission, hein. Notre mission, c’est de construire un tourisme plus durable et en fait, on a lancé gringo parce qu’on s’est aperçu que bah que le tourisme était très carbone, hein. C’est 8 % de l’empreinte mondiale de l’empreinte carbone mondiale hein, et donc on s’est demandé un peu ce qu’on pouvait faire dans cet espace touristique pour promouvoir un tourisme plus local et et moins carbone, qui qui allié quand même le le plaisir à tout ça quoi voilà.
– Marc — 02:05 :
D’accord, donc si je résumé un peu votre stratégie, c’est à la fois de viser des logements plus durables et à la fois des logements plus qualitatifs pour que les gens aient moins.
– Guillaume — 02:14 :
Voilà, ça répète, c’est c’est l’idée, c’est de, c’est d’essayer de montrer que t’as pas besoin de partir au demande pour passer de bonnes vacances quoi en fait, hein? On se dit quoi voilà, on est un peu la génération Easyjet. Nous, les trentenaires hein. On nous a envoyé aux 4 coins de l’Europe à 15€ Mais en fait ce qu’on savait pas, c’était 300 kilos de CO 2 hein, et en fait, nous on veut essayer de réconcilier un petit peu le plaisir du voyage et l’environnement et en en fait on le fait sur l’hébergement touristique en sélectionnant des endroits qui ont un petit quelque chose là-bas, qui sont plus chers forcément hein, mais c’est y a une expérience, il y a un petit plus, un petit quelque chose quoi, et ça peut être le cadre, ça peut être l’endroit, ça peut être l’hébergeur en soi, ça peut être pas mal de choses hein, mais en tout cas l’idée c’est voilà, c’est de raconter un nouvel imaginaire aussi, qui est dire pas besoin de de partir au bout du monde pour passer de bonnes vacances, tout simplement.
– Marc — 02:54 :
C’est trop cool. Alors la data chez vous, c’est là? Depuis le début, on va dire, y a y a 3 ingénieurs sur 4 cofondateurs qui gèrent ça, à quoi ça sert à qui ça sert?
– Guillaume — 03:03 :
Tout le monde l’utilise, hein à data, parce que c’est assez central, hein? Je dirais que c’est utilisé dans toutes les divisions simplement pour contexte, comme on est structuré chez gringo. Globalement il y a 3 pôles, on va dire même si on est que 15 donc je vais on sait pas non plus une organisation de multinationales hein, mais y a un pôle marketing voyageur, il y a un pôle prospection hébergeur hein y a un pôle produit tech au milieu quoi donc globalement tout le monde utilise la data dans ces 3 pôles sur des cas d’utilisation relativement différents, hein? En termes de gestion, c’est plutôt l’équipe tech qui est chargée d’avoir le setup technique Hein. En place, d’avoir voilà une bonne qualité de données aussi, mais ensuite on utilise des outils comme metabase par exemple, qui vont permettre à tout le business, hein. Côté marketing et côté hébergeur, notamment de l’utiliser efficacement sur pas mal. Le cas d’usage que voilà que je pourrais détailler si ça t’intéresse.
– Marc — 03:50 :
D’accord, donc metabase outils de de Business Intelligence. On va dire, c’est toi qui le manipule directement.
– Guillaume — 03:56 :
À peu près tous les jours, tous les jours, sur les cas d’usage. Typiquement donc bah déjà quand on est si on a besoin d’avoir une vision claire de ces ventes très simplement. Donc moi j’ai un j’ai tout un tas de dashboard hein qui me permettent de monitorer en temps réel le business, hein. Je sais combien j’ai fait de réseau, mois-ci, combien de mois dernier, combien, la même chose, il y a un an, je sais hier comment ça s’est passé, parce que j’avais une grosse opération de communication, je sais en live tous mes taux de satisfaction client. Enfin, en tout cas, j’ai toutes les métriques business qui me permettent de piloter un petit peu. Moi, le business en tant que si ensuite on va utiliser sur des des cas beaucoup plus pratiques dans certains cas exemple, alors je sais pas si je veux parler du truc le plus avancé tout de suite, mais un exemple d’utilisation qu’on a pu utiliser, c’est au service client par exemple. On avait plusieurs demandes à un moment pour pour avoir des expériences de style yoga. Voilà parce que c’est quelque chose qui peut, qui est assez en lien avec notre cible, on va dire et on n’avait pas de data, on n’avait pas de filtre ou rien que ce soit en rapport avec l’yoga, donc là en fait ce qu’on s’est dit c’est que tiens, si on allait chercher dans metabase tous nos hébergeurs qui avaient le mot yoga dans la description? En fait, on pourrait fournir une liste à ces demandes clients de tiens voilà les listes des hébergeurs qui ont une expérience d’yoga où compatible. Et en fait, ce qu’on a fait en quelques heures, hein? Avec le stop technique qu’on a aussi de création, de filtres, de l’admin back Office business, hein. En quelques heures en fait, on s’est retrouvé à avoir la liste de tous les hébergeurs qui ont l’expérience yoga, créer un filtre et répondre aux clients. Voici, on vient de créer un film juste pour vous tous les hébergeurs qui offrent une expérience yoga. Donc ça c’est un voilà, c’est un cas très concret de la puissance de la data, je trouve parce que si on avait dû répondre à cette demande rien bah on a 500 annonces, hébergeurs aurait fallu chercher chaque annonce, qu’il yoga dedans, pas dedans, et cetera. Enfin, ça aurait pris des jours quoi. Littéralement et là en quelques heures, grâce à la data et grâce à cette technique, on peut offrir un service très qualitatif et un satisfaction client très élevé sur ce type de demande.
– Marc — 05:49 :
D’accord donc, en fait, si si je résume un peu la répartition du travail, y a l’équipe technique qui va mettre en place tout ce qui est pipeline, data, structuration, faire en sorte que ce soit facile de faire des conneries, faire des recherches isolées des champs de texte, faire de tous types de de transformation dessus et les transformations, les recherches, l’utilisation, la consommation de la data, celle-là finalement, elle est relativement simple et c’est le CE qui l’a fait directement.
– Guillaume — 06:14 :
Quoi, voilà CO ou d’autres gens dans le business bien sûr hein. Moi je, je parle là de mon cas très concret. Mais d’autres personnes utilisent marketing. Côté prospection, hébergeur aussi, hein. Enfin voilà, on l’utilise aussi pour faire de la curation hein, c’est à dire par exemple, tiens, il y a tel hébergeur qui a tous ces calendriers bloqués, on a par exemple des hébergeurs. Bah je peux savoir en live qui est offline et pourquoi quoi par exemple. Donc c’est utilisé partout, mais clairement le fondement au début c’est d’avoir un setup technique propre et d’avoir de la de la donnée qualitative et fiable quoi. Surtout dès qu’on n’a pas ça, on voit qu’au business ça sert à rien. Finalement je prends un exemple c’est Google Analytics, il y a eu des migrations récemment de GTA 4. Pour analyser voilà d’où vient mon trafic, comment ça se passe, et cetera. Avec un setup technique beaucoup plus lourd que sur Gear classique. Bah vu qu’y a eu des difficultés de setup et un stop technique pas optimal au début on avait rien d’exploitable quoi et donc ça pour le coup on était un peu à l’aveugle parce que Ben on sait pas d’où vient le trafic. Tiens on a fait telle opération de communication, on a mis tel budget marketing ici on est incapable de le traquer si le setup technique ne suit pas donc. Le setup technique clairement est fondamental quoi. C’est, c’est le prérequis pour moi.
– Marc — 07:20 :
Un setup technique bien calé, vraiment complet, c’est aussi une difficulté de migration par la suite, quand des outils changent.
– Guillaume — 07:27 :
Oui, c’est ça en tout cas, faut faut faut vraiment bien se poser la question, de quels outils on utilise hein? Et il faut pas négliger à mon avis, l’investissement technique pour que tout soit bien robuste hein? Alors c’est jamais évident parce que bah la capacité technique on le sait-elle est toujours saturée hein, y a toujours des arbitrages à faire entre ça et des fonctionnalités par exemple. Donc c’est jamais évident, mais la valeur business qu’on en retire à long terme, elle est absolument fondamentale quoi. Mais bien sûr, faut se poser les bonnes questions au début, quels outils? Et après on n’est pas à l’abri? Bien sûr, d’une migration technique d’un des grands acteurs comme voilà, comme Google Analytics dans ce cas-là. Mais mais faut faut clairement prendre le temps de bien réfléchir à quel c’est trop technique. On veut mettre en place quoi, parce que ça et le mettre en place. Moi ma recommandation c’est dès le début quoi en fait hein?
– Marc — 08:08 :
Dès le début, il faut se poser les bonnes questions, quel est le plus gros? Disons, la plus grosse décision au business que vous ayez pris? Grâce grâce à vos votre stack data et à cette accessibilité de de la data.
– Guillaume — 08:21 :
Alors c’est une bonne question qui me sache un peu parce qu’en fait, on en prend d’innombrables décisions et je saurais pas te dire tiens. Cette décision là? Ouais, elle est fondamentale, mais alors je vais t’en citer une qui me passe par la tête, c’est peut-être pas la plus grosse qu’on ait pris. Enfin, c’est en tout cas une qu’on n’a pas encore prise. Mais c’est une décision stratégique. Par exemple, aujourd’hui, on fait que l’hébergement, nous, on sait qu’on est entreprise à mission, hein. Voilà, on le disait qu’on serait un tourisme plus durable. Donc nous bien sûr, on a envie d’aller sur des fonctionnalités sur les transports. On a tout un tas d’indicateurs, hein? Sur les études de marché classique qui nous disent que Bah voilà, les gens ont ont un pain point là-dessus. Enfin, les les utilisateurs hein, point sur les transports, comment je sais combien de carbone et cetera. Et en fait on a de la data en interne chez gringo qui nous orienté dans la direction stratégique de développer les fonctionnalités autour des transports et un point de données clé c’est quel est l’utilisation du filtre gare à proximité sur notre site gringo et en fait c’est un filtre qui est 3 fois plus utilisé que l’autre. Voilà donc ça c’est un inside data concret qui nous fait dire, tiens Ben nos utilisateurs en fait là. Il cherche des solutions, ils cherchent des logements accessibles en train. Voilà, en fait, ils ont un problème plus général de voyager en train pour voyager bas carbone, en tout cas dans notre cible clientèle et donc à partir de cette donnée là on se dit bah au lieu de développer une fonctionnalité je veux-je veux dire qui améliorent un tout petit peu ce qu’on fait sur l’hébergement, mais on se dit on va aller développer des fonctionnalités, les transports et donc on se base sur cette date là pour prendre des décisions stratégiques qui ont Ben qui ont un gros impact hein. Bien sûr pour pour la suite de l’activité oui d’un.
– Marc — 09:50 :
Point de vue stratégique, vous vous dites, il y a un gros truc à faire sur le transport parce que notre clientèle est de base, quelqu’un. Qui va chercher à accéder à son logement en train et ça, vous le voyez dans dans vos données directement.
– Guillaume — 10:01 :
Voilà, et en tout cas sur toutes les décisions qu’on peut prendre, hein. À chaque fois c’est de la même manière, alors là je suis un peu formaté par mon parcours. Conseil mais c’est on a une hypothèse, mais l’hypothèse est intuitive en général hein et après on doit être vraiment data-driven pour se dire tiens, est-ce que là c’est moi qui me fais un film où est-ce que vraiment il y a quelque chose de tangible qui vient corroborer ce que je suis en train de dire? Donc si moi, si haut gringo je dis. Il faut qu’on développé des fonctionnalités et des transports, c’est, est-ce que je me fais un film, c’est que moi, ma perception, qui est très biaisée, hein? Comme chaque individu, on a tous une perception très biaisée. Ou est ce que nos utilisateurs en ont vraiment besoin et ça en fait c’est vrai pour tout des problèmes. Voilà, c’est vrai pour pour beaucoup beaucoup de choses quoi.
– Marc — 10:42 :
Oui, des intuitions qui sont, qui sont pas bonnes en business, on en a, on en a souvent.
– Guillaume — 10:46 :
Donc c’est exactement ça.
– Marc — 10:48 :
Beaucoup les valider. Et alors, qu’est-ce qui vous limite sur la data aujourd’hui? Où est-ce que tu sens qu’il y a une limite pour exploiter encore plus? Toute votre data.
– Guillaume — 10:57 :
Je pense que c’est une question de complexité, hein, c’est à dire que comme je le disais, en fait, on a fait un setup technique qui à mon avis était déjà d’un d’un niveau de maturité supérieure, hein, à ce que c’est à celui qui était le nôtre quand on l’a fait. Et du coup on se retrouve avec une richesse de data. Bah qui est quand on a de la data Rich faut l’exploiter et ça ça coûte du temps humain très simplement parce qu’on n’a pas encore d’outils aujourd’hui qui permettent de tout seul. Voilà tiens moi je suis-je suis gringo, je veux maximiser mon trafic, mon taux de conversion et mes paniers moyens. J’ai pas un outil qui vient me dire, Ah OK c’est ça ta question. Regarde, j’ai analysé les données de mix panel et de méta bases, et voilà ce qu’il faut faire ça, ça n’existe.
– Marc — 11:36 :
Pas variable.
– Guillaume — 11:37 :
Voilà trop de variables, trop de questions à se poser. Faut avoir un raisonnement très structuré, très spécifique, hein? Parce que mon raisonnement à moi va pas être le même que sur un autre site d’e commerce que sur un SAS B to B que sur je ne sais quoi hein donc donc ça, il faut un humain aujourd’hui pour aller cette data, c’est ça le vrai, la vraie problématique, c’est d’avoir quelqu’un à temps plein qui fait que ça et qui a que ça en ligne de mire. Aujourd’hui, on le fait de manière collective. Bon moi je suis Oh, je je vais pas pouvoir passer à assez de temps, y a quand même un coût d’entrée hein, sur ces outils, voilà qui est non négligeable. Donc c’est c’est ça la principale problématique aujourd’hui, c’est qu’il faut l’humain quand même à la fin, même si c’est de la data.
– Marc — 12:11 :
Un data Scientist finalement là où vous avez exact du data.
– Guillaume — 12:14 :
Scientist exactement, voilà.
– Marc — 12:15 :
D’accord, alors combien vous êtes qu’on déterminé ce seuil du data Scientist?
– Guillaume — 12:20 :
Bah on est 15, vous êtes 15OK 15, voilà.
– Marc — 12:23 :
C’est le 16ème, le je pense que je dirais. Autour du 20ème autour du 20ème, autour du 20ème. Dans ces eaux là, parce que là je pense que voilà, il nous faudrait peut-être d’abord de l’u X designer parce qu’on a pas non plus de X designer de de product, et cetera. Donc je pense que le data arrive dans les voilà entre 15 et 20 quoi je pense plutôt vers 20 15 mais bon tout est spécifique encore une fois c’est dans le cadre gringo on sur un business de marketplace quoi. Voilà.
– Marc — 12:50 :
Quelle est la plus grande des convenus que vous avez eus avec la data est ce qu’y a des je dirais des choses qui que tu regrettes de pas avoir fait autrement ou bien des des inductions en erreur qui ont pu avoir lieu avec la data?
– Guillaume — 13:07 :
Alors ce qui m’inquiète, c’est que j’ai envie de dire non, donc ça veut dire qu’il y a déjà, ça veut dire que probablement, je ne suis pas conscient des des, des problèmes que j’ai mais bon donc y a rien qui me passe par la tête de spécial. Faut dire qu’aussi pour le contexte voilà, on a eu un setup data mis en place par Félix-Antoine donc fondateurs qui sont très comment dire? Voilà qui qui mettent une grosse exigence sur le setup technique hein? Je pense que tu connais Félix et tu sais, le voilà le degré d’exigence là-dessus. Donc on a quand même quelque chose de State of the art. On va dire dès le début hein? Donc j’ai moi j’ai pas eu de déconvenue nu spécial. Peut-être que le le challenge que j’ai aujourd’hui et le la frustration que j’ai c’est plutôt après de diffuser la culture d’attente interne. En fait c’est ça la problématique que j’ai moi, c’est que moi c’est très bien, utiliser mes tables mais parce que j’y ai passé quelques soirées quelques matinées. Mais dans mon équipe, il y a peu de gens qui savent l’utiliser.
– Marc — 14:00 :
Quoi, t’es ingénieur de base aussi.
– Guillaume — 14:02 :
Voilà, et j’ai aussi cette ce background là qui fait que je suis à l’aise avec avec ce genre de sujet. Mais le challenge, c’est de diffuser la culture, c’est de faire monter tout le monde sur metabase et c’est ça qui est enfin sur metabase d’autres outils, hein mix panel ou autres encore ou Google Analytics, rien que Google Analytics hein. Tu vois? Mes équipes marketing utilisent très peu finalement, alors que c’est un outil fondamental. Donc en fait il y a quand même un coût d’entrée de tous ces outils data qui fait que pour le diffuser à l’ensemble de l’équipe, même sur une équipe de 15. Normalement, la diffusion se fait bien. C’est ça, c’est ça la difficulté. Et du coup on l’exploite pas. La data, son full potentiel aussi parce qu’y a peu de gens en fait qui savent l’utiliser. Et là on devrait faire par exemple dans 10 jours un lunch and learn metabase hein pour pour apprendre à tout le monde comment faire de metabase. Tiens, on va se poser des questions, combien y a d’hébergeur qui ont une un bassin de baignade biologique? Ben Regardez, avec mes tables, on peut faire ça, on peut savoir ça en 3 secondes, tu vois, on va faire des choses comme ça.
– Marc — 14:56 :
Coder sans rien simplement, en manipulant une interface.
– Guillaume — 14:58 :
Simplement voilà, on manipule l’interface. Complètement nos codes, y a rien à faire hein mais mais c’est ça le challenge, je pense quoi hein, c’est c’est la diffusion culturelle au sein de l’équipe et déjà que tout le monde ait la capacité de le faire, mais aussi le réflexe de le faire et de se dire je vais être data driven quoi. Tiens, il y a un problème qui revient tout le temps. Ah bah regardons comment solutionner cette chose là avec la data où solutionnons ce problème là avec la data exemple la dernière fois par exemple, on s’est aperçu que Ben y avait des gens, des utilisateurs qui démarchaient nos hébergeurs en créant des comptes sur Go tu vois moi je vends des solutions, je vends des filtres. Piscine écologique. Je vais créer un compte sur gringo et tous les hébergeurs qui a une piscine. Je vais leur envoyer un message.
– Guillaume — 15:37 :
D’accord donc.
– Marc — 15:38 :
Ça, on a des utilisateurs là parce qu’on est dans une phase de Skype qui commence à faire ça et donc là tout le monde était là. Ah là là c’est un gros problème, comment on fait? Il va falloir qu’on fasse des développements, on va ça va coûter 2 mois de développement, et cetera. Enfin, on commençait à se, les gens commencent à se mettre dans cet état là. Et moi j’ai dit bah allons voir nos données de message. Combien de messages par utilisateur? Et donc si on voit qu’il y a un grand nombre d’utilisateurs avec un grand nombre de messages, ça veut dire qu’on a un gros problème de d’utilisateurs qui prospecte sur la plateforme et c’est un problème qui va falloir traiter urgemment et en fait en rien qu’en faisant une question mais ta base très simple en 3 minutes littéralement on se rend compte qu’en fait c’est localisé sur 3 utilisateurs, on les bannit point et voilà. Y a pas besoin de se mettre un gros développement technique qui coûterait peut-être voilà 2 mois de dev. Mais tu vois ça, c’est avoir ces réflexes là pour tout le monde. Est-ce que ça vous est déjà arrivé d’arriver à un point où vous dites cette information? Il me manque, vous, vous cherchez à répondre à une question avec vos données et vous rendez compte que vous manque d’information et du coup vous décidez de la rajouter dans la stack technique de la collecter, ce que vous avez déjà eu, ce genre d’aller retour.
– Guillaume — 16:47 :
Oui oui. Alors là j’ai pas d’exemple précis à te donner mais c’est un truc qui clairement qui est évolutif hein, quand tu commences à mettre le nez dans la data. Clairement, tu foisonnes et tu te dis Ah tiens, j’ai ça. Ah mais du coup je tire le fil et tiens, je vais aller chercher ça et à un moment Clac t’es bloqué parce que bah non là on a pas la data donc. Ça, c’est un truc qui te ratifié aussi avec les dev, hein, qui est de se dire Bah tiens là il nous manque si ça ça est-ce qu’on peut l’ajouter quelque part, et cetera? Donc oui c’est c’est un truc où il faut être pareil en mode agile hein finalement.
– Marc — 17:23 :
Et ça, ça crée beaucoup de beaucoup de travail pour les dev j’imagine.
– Guillaume — 17:27 :
Pas tant que ça, c’est le setup a été fait de manière a été pensé de manière scalable et robuste et agile quoi. Après, ça dépend des besoins, hein. Il y a des besoins plus ou moins complexes que d’autres hein, mais si c’est ajouter un champ de données quelque part dans une interface back office Django par exemple, c’est très simple.
– Marc — 17:45 :
Ok Parce que tu as une anecdote à nous partager sur la data.
– Guillaume — 17:50 :
Bah oui bah une anecdote voilà donc une anecdote pour comment on peut servir de la data de manière macro. Toutes les parties du business. Bah une anecdote, c’est l’anecdote char à voile donc je sais pas si vous avez suivi cette histoire mais y a tout un scandale avec voilà le PSG et Christophe Galtier, bon qui bon. Bref, le PSG allait en avion à Nantes avec un impact carbone colossal. Galtier a fait une vanne en disant qu’ils allaient aller en char à voile à la prochaine fois en en se moquant un peu des journalistes. Donc nous, ça, nous, ça nous a un peu scandalisé. Parce que l’impact carbone était horrible. Mais du coup on s’est dit, tiens, il faut qu’on fasse une opération de communication Flash où on dénonce un peu ça quoi. Et en fait on s’est dit y a eu un tas de troll hein? Sur les réseaux sociaux et cetera, on s’est dit bah tiens, on va troller, nous aussi on va faire, on va créer un filtre gringo, char à voile où on met tous les logements accessibles en char à voile et on va faire un communiqué de presse à la presse pour dire le fil de charal est disponible sur gringo et voilà et il se marrait un peu avec ça quoi. Et donc bah en termes de data, comment ça s’est, donc on arrive le lundi matin littéralement j’ai fait un post LinkedIn avec la vidéo. Tout de suite, les gens se sont excités en disant, c’est scandaleux, j’ai dit. Bon bah voyons voir ce qu’on peut faire avec la data et en fait ce qu’on a fait c’est que bah on a regardé déjà on pouvait faire du char à voile en France, on a vu que c’était toute la côte atlantique, Nord et cetera. On a collecté la data de tous les hébergeurs qui étaient dans des zones charal, c’est à dire bord de mer au-dessus de Bordeaux quoi. Globalement, on a créé un fil charal, on a Flag tous ces hébergeurs avec le fil charal, on a créé une page statique dédiée depuis notre admin, on a fait un communiqué de presse et à 13h Le communiqué de presse est sorti la page Live sur notre site et voilà le communiquer sur les sociaux en mode fun quoi. Et tout ça. Tout ça en fait avec de la data part d’un d’un truc très marketing. Très voilà. News Jacking, on va dire et grâce à la data en 1h ou 2 on peut opérationnaliser un truc de manière hyper vite quoi. Voilà.
– Marc — 19:42 :
Donc vous avez littéralement ajoute un un moyen de transport char à voile et on a accès sur gringo à tout, tous les hébergements accessibles en char à voile,
– Guillaume — 19:49 :
Voilà alors accessible en char à voile rigoureusement rigoureusement pourrait être tout, hein, tu peux prendre ton char à voile sur l’autoroute, mais là on a ce qu’on a surtout fait. C’est voilà des endroits où on peut faire du char à voile quoi. Et donc mais il y a encore, je crois, sur gringo, on l’a, on l’a juste planqué un peu maintenant parce que c’est c’est froid sinon ça serait un peu bizarre mais voilà, on avait la tête d’un mbappé d’et de Galtier dessus quoi.
– Marc — 20:10 :
Bref, comment vous mesurez le succès d’un de de ce genre de d’opérations, est-ce que ce que vous voyez des retombées, ce que ce quelque chose que vous arrivez à à mesurer?
– Guillaume — 20:20 :
Bah déjà t’as l’engagement sur la Socio hein ça c’est un truc sur LinkedIn qui avait, voilà qui avait fait un bon, je dirais pas le bus parce que j’aime pas trop ce mot mais qui avait une bonne traction sur LinkedIn. Après on avait eu au moins une quinzaine de retombées presse, hein, quand même des bah des médias qui disaient Ah cette plateforme enfin le feu de caravane est disponible sur gringo et en gros, qui se marrait un peu du truc quoi tu vois des médias un peu style lifestyle quoi. Donc tu le mesures direct hein? C’est à dire que globalement t’as eu 15 retombées presse. C’est des telles audiences, telle audience télé audience, donc ça fait telle visibilité pour la marque quoi. Et aussi ça après de manière moins tangible, les gens de notre communauté qui nous suivent, voilà, t’arrives plein de gens qui ont commenté en disant Ah trop drôle et tout quoi donc ça engage aussi ta communauté existante quoi.
– Marc — 21:10 :
Ouais, les réseaux sociaux, c’est un bon sujet sur sur la data parce que du coup comme on l’a dit, tu publies sur LinkedIn, donc t’as une communauté qui commence à être intéressante. Aujourd’hui, est-ce que tu mesures pareil, est-ce que tu utilises la data pour savoir de quoi il faut parler, qu’est-ce qui marche, qui marche pas, ce que t’as des choses à nous partager là-dessus?
– Guillaume — 21:30 :
Ouais alors sur la paradoxalement, tout ce qui est data réseaux sociaux, je trouve que c’est y a un point de friction là-dessus. Clairement c’est à dire que je te parle de cette technique sur la tech hein? Moi, j’aurais besoin technique sur le volet réseaux sociaux, c’est à dire un truc qui agrège les datas de tous mes réseaux sociaux, qui me fait des Analytics de porter engagement et cetera pas que sur un réseau social sur tous en fait, hein, avec des métriques différentes selon les réseaux sociaux parce que sur Instagram tu mesures pas la même chose que sur LinkedIn et ça aujourd’hui Ben moi en tout cas j’ai je l’ai pas. Peut-être que ça existe et que j’ai pas juste eu le temps de le faire et peut-être que je suis un niveau de maturité faible là-dessus et que faut que je je m’entends compétences mais là, ça se fait de manière basique, au good feeling quoi, hein, c’est à dire tiens, bah ce type de quand je poste ce type de truc sur LinkedIn, Bah les gens les gens lisent pas, ça veut dire que ça les intéresse pas où que c’est nul. Ou tiens quand je pose ce type de truc là les gens s’enflamment. Bon bah du coup. Ma communauté. Finalement, elle veut plutôt entendre ça quoi. Enfin, elle veut plutôt que je parle de ça ou voilà, ou ce type de contenu. Finalement, ça génère de l’engagement. Ce type de contenu là non bon bah du coup pour l’instant c’est très très basique. Très good feeling et sur sur LinkedIn. De manière plus générale, ce que je constate, c’est que sur les comptes Pro t’as des outils qui font des analyses sur les comptes perso beaucoup moins déjà. En tout cas de ce que j’ai pu voir jusqu’ici. Quoi donc je LinkedIn, alors j’avais vu passer un notebook NAS qui permettait de récupérer un peu les analytiques de tes postes, mais c’est un peu plus, disons y a enfin c’est un autre bouc, donc y a du code et il faut-il faut changer un endroit, un jeton et cetera. Mais je t’enverrai ça prochainement très chaud. Est-ce que t’as une opinion sur le métier de data Scientist? Est-ce que Ben notamment si tu devais recruter, qu’est-ce que tu regardes en premier, en 2ème?
– Guillaume — 23:26 :
Alors. Il y a data Scientist Data Scientist Hein? Je pense que c’est c’est assez, ça me paraît assez vaste comme scope hein pour moi je différencierais enfin je j’ai pas une très bonne structure mentale hein? Des différents profils ou des différents jobs qu’il y a sur sur data Scientist. Mais moi, ce que je vois déjà, c’est que si je prends un profil plutôt data analyst, c’est à dire pas quelqu’un qui va commencer à faire du machine learning ou de de l’i a mais quelqu’un qui va plutôt être là. Data Analyst au service du Business on va dire hein? Donc là, moi quelqu’un dont j’aurai besoin de quelqu’un qui est bon, ton rôle, c’est d’analyser la data pour booster les metrics globalement hein, on a besoin de booster la conversion, on a besoin de booster. Le trafic, on a besoin de booster les paniers, moyens, et cetera. Bon bah moi je vais rechercher quelqu’un déjà. Qui qui est quand même business driven dans le sens, voilà, je veux pas quelqu’un qui est très fort pour analyser de la data, mais qui qui marche un peu comme un poulet sans tête, sans savoir vraiment pourquoi il le fait.
– Marc — 24:29 :
Pas besoin d’algorithmique, pas besoin de ce genre de choses. À ce stade, on veut, on veut du business ou quelqu’un qui a une voix?
– Guillaume — 24:34 :
Voilà, à mon stade, je vais avoir besoin de quelqu’un, de quelqu’un qui est un peu dans un esprit gros snacking. Tu vois, qui va se dire tiens bah j’ai une minorité data, hein. Mes objectifs c’est de booster la conversion, de booster tel et tel metrics. Ok Bah où est-ce que je vais chercher les Queens pour le faire? D’un point de vue produit ou d’un point de vue autre, hein, avoir. Mais donc je vais chercher quelqu’un qui a quand même le sens de ces objectifs business là qui va être aussi curieux, hein, qui va être aussi curieux d’aller chercher des leviers d’optimisation et de croissance qu’on n’a pas forcément imaginé. Donc voilà, on va dire que c’est sur le volet un petit peu soft skill. Après moi, comme je te le disais hein, je suis pas encore dans un stade où on va faire des choses très avancées. Pour l’instant on est plutôt au niveau où bon faut qu’on exploite toute cette data pour en faire quelque chose quoi.
– Marc — 25:20 :
Si c’était à refaire la remonter? Gringo 2-0 Sur l’aspect data tu changerais quoi tu ferais comment autrement?
– Guillaume — 25:30 :
Franchement, je pense pas que je changerai quelque chose. Je pense que si tu me poses la question dans un an ou 2 quand on aura pensé toute notre data, je te dire là, je te dirai peut-être tiens Ben ça en fait. Mais là au jour d’aujourd’hui, comme je te le dis, je moi j’ai l’impression d’avoir un très bon set up data mais juste pas le temps de de l’exploiter quoi. C’est c’est vraiment ça mon feeling? Si je devais changer quelque chose, en revanche c’est d’impliquer enfin donné border tout de suite beaucoup plus vite les équipes. Dans ce ce sujet data pour que ça diffuse à toute l’organisation et pas juste. Voilà y a 2-3 personnes sur 15 qui sont familiers avec les outils et les autres ne sont pas trop entendu parler ne savent pas trop les utiliser. C’est surtout ça que je referais différemment, c’est dès le début claque je viens de voir tout le monde sur ces outils data et je crée une vraie culture data dès le début. Parce que je pense que c’est un muscle pour l’organisation et ça te tire vers l’excellence, vers des raisonnements qui sont vraiment optimisés et rationnels et tu construis vraiment un business optimisé. Je pense avec cette arme là et ça c’est quelque chose que voilà. Si c’était à refaire, vraiment. Y aura une boarding data pour ce monde quoi.
– Marc — 26:38 :
Et surtout ce que vous avez utilisé, vous avez dû utiliser pas mal de d’outils testés pas mal de choses qu’il y a des choses que vous avez peut-être. Vous avez été déçues, vous avez peut-être laissé de côté, qu’est-ce que qu’est-ce que tu dirais aux gens pour pas qu’ils perdent de temps sur la stack que toi tu gardes à la fin.
– Guillaume — 26:54 :
On a surtout sélectionné déjà les début, on a fait le tri dès le début. En fait, hein? C’est surtout ça qu’on a fait sur ce qui reste à la fin, qui me paraît tout à fait fondamental. Bah comme je le disais, t’abaisses pour moi et le fondamental.
– Marc — 27:05 :
Le grand gagnant?
– Guillaume — 27:06 :
Voilà sur le volet produit à mix panel, les mix panel est un peu délicat à y a quand même un coût d’entrée important avec le bon complémentaire de mix panel c’est clarity Microsoft Clarity. J’en ai pas parlé mais lui donne une. Très simplement. Beaucoup d’Insight à fort impact en vraiment en un claquement de doigts sans coup d’entrée quoi. Moi je veux savoir où s’arrête les gens sur ma page. Je vais sur clarity là que je le sais, avec des des Heat Maps, ça remplit un peu des fonctions comme ce que ce que fait aussi hein par exemple mais mais c’est un truc très facile à cet top qui moi me donne des des datas très qualitatives à gros impact décisionnel direct sans que j’ai à faire d’effort quoi. Et une richesse de data aussi. Et et très User-friendly business friendly quoi. Tu vois donc donc moi c’est ces 3 outils qui me et si tu as choisi metabase, C’est pourquoi, par rapport à on va dire les concurrents Microsoft, Power BI tableau, Google Data Studio.
– Guillaume — 28:07 :
Alors ça, c’est plutôt la question qu’il faudrait poser à Félix, c’est plutôt que voilà, mais je crois que c’est un mix, hein, de. De cette technique enfin de de coût d’entrée de cette technique, aussi de facilité d’utilisation, hein de puissance, ça me rappelle un peu, tu vois les arbitrages qu’on fait sur des outillages type CRM par exemple, c’est à dire moi aujourd’hui comme CRM côté, ils ont utilisé skydrive. Euh, mais on aurait pu utiliser 6 force mais sans force n’était pas du tout assez adapté à notre stade, beaucoup trop lourd à intégrer beaucoup d’entrée pour une boîte beaucoup plus grosse et correspondait pas finalement à notre stade. Ben je pense que sur la data c’est un petit peu pareil. Finalement metabase offre un un truc nickel d’entrée quand t’es une start-up qui démarre, y a l’enjeu de cours aussi hein c’est gratuit donc c’est un truc qui setup sur ton serveur hein donc donc voilà, je pense que c’est gratuit, c’est open source, mais après il faut le, il faut l’héberger soi-même.
– Guillaume — 29:03 :
Voilà, après voilà bon, tu l’as dans les coups de serveur mais mais en tout cas ça offre un super rapport qualité prix quand même à la fin quoi donc donc c’est c’est c’est ces facteurs là quoi c’est toujours pareil de toute façon mais qu’il y a cet outils, quel point c’est compliqué, à quel point s’adapter à notre stade, qu’est-ce qu’on va en tirer à court terme s’il faut changer à moyen terme et migrer, on le sait, de toute façon y aura un stade ou faudra probablement migrer des choses, mais on sait aussi l’évolution d’une boîte quoi. Ouais.
– Marc — 29:31 :
Si t’as un conseil pour quelqu’un qui monte une boîte aujourd’hui et qui devrait dire, sur un modèle proche de gringo et qui doit setup les choses depuis 0 qu’est-ce que tu lui conseilles comme outil? Qu’est ce que tu conseilles à faire tout de suite?
– Guillaume — 29:45 :
Alors si c’est un business de la même typologie que le nôtre, hein ou le le le produit, on va dire est au cœur de donc l’expérience utilisateur est au cœur du produit hein Ben moi je recommande les outils dont dont j’ai parlé, je recommanderai presque en premier des outils produit, donc je parlais de Microsoft. Titi mais bon. Des outils de ce type type Hadjar, Microsoft Clarity, qui se setup très très facilement. Ou tu peux avoir des choses directes quoi, c’est à dire, Tu fais une landing page avec cet outil, t’as direct de la data qui te donne beaucoup d’informations. Quoi donc c’est ça le point de départ à mon avis. Avant même de penser mes tables et cetera, je pense que metabase Mix panel vient dans un temps 2 quand t’as bah déjà un produit live déjà des transactions voilà à partir de ce moment-là, mais dès que tu commences à avoir un produit MVP live qui va plus ou moins skyler. Là, je pense qu’il faut-il faut mettre en place ces outils là et vraiment. Le plus vite possible. Mais voilà, je pense que. Ouais, ça serait mes recommandations comme ça. Quand t’es au stade landing. Page de l’Analytique produit type Hodja où Clarity et dès que tu étais au stade MP construit transactions du metabase et du mix panel un peu plus puissant.
– Marc — 31:00 :
Quoi donc écoutez business, on est sur des outils simples à utiliser et canaliser vraiment le l’aspect transactionnel, la clientèle. Le futur pour gringo, c’est quoi alors déjà peut-être dans un point de vue de data, c’est c’est quoi vos gros chantiers?
– Guillaume — 31:16 :
Ben analysez cette data. Je pense qu’il faut-il faut miner l’or qu’on a voilà, il faut faire du mining de de cette data hein? Je pense que qui va le faire? Quand, comment? Avec quel objectif? Euh, ça reste à à définir, hein.
– Marc — 31:34 :
Vous faites du machine learning chez gringo, alors.
– Guillaume — 31:37 :
Tout ce qui va être machine learning, je pense que c’est un stade de développement qui n’est pas encore le nôtre, en tout cas un stade de maturité qui n’est pas encore le nôtre aujourd’hui, nous. Notre stade de maturité on va dire qu’il est sur la data, il est intermédiaire. Enfin en tout cas, moi je le qualifié d’intermédiaire. Si je prends un peu de recul sur la situation, pour moi le niveau 0 c’est vraiment de mettre en place des de quand t’appelles setup technique t’as même pas les des outils avec des data dedans que tu les utilises pas, et cetera. Tu exploites la data et au niveau on va dire. Démarrage nous, là, on est au niveau où on a de la data hein, mais où on a encore pas la capacité d’exploiter toute cette data, c’est à dire que vers la personne en interne qui est data analyste parce que bon Ben on est que 15 et que bon Ben il faut faire des choix aussi et et mais en tout cas on a plein, on a une mine d’or de data qu’on n’a pas encore vraiment exploité. On a peut être exploité 10 % du potentiel de cette data. Je pense à toute la data qu’on a notamment sur le produit avec des outils comme mix panel. Qui ont de la data très riche sur ce que font nos utilisateurs, tous les tous les tunnels de conversion. Enfin y a y a une data d’une d’une richesse hallucinante, on sait où clique les gens, qu’est-ce qu’ils voient, ce qu’ils ne voient pas, où est-ce qu’ils s’arrêtent, et cetera. Ça on a pas eu le temps matériel d’exploiter ça à son plein potentiel et donc c’est pour ça que je qualifie encore au niveau intermédiaire, c’est à dire qu’on a le setup, on fait quelque chose de la data mais pas encore à son plein potentiel et pour moi le machine learning vient encore un niveau de maturité au-dessus là où tu dis bon bah en fait je vais même anticiper. Je vais même anticiper et faire des analyses très complexes, très avancées de ma data de manière projective, nous l’a déjà sur le l’analyse de l’existant. On a déjà une vision assez partielle, quoi en fait de capacité donc finalement,
– Marc — 33:13 :
Avant de commencer à faire de l’intelligence, il s’agit de commencer à regarder toute la data dans son ensemble.
– Guillaume — 33:19 :
Voilà, je pense qu’il faut commencer par les fondamentaux, hein, c’est on a de la data, exploitons la, analysons la tirons les conclusions avec les décisions nécessaires, les process de gestion en interne, et cetera. Et une fois qu’on a ça au propre, ce qui est un chemin dans lequel on est en cours avec gringo hein, mais qui est encore qui nécessité encore pas mal de travail. Mais une fois qu’on a ce cette chose là en place, là, je pense que des problématiques de machine learning, data science, voilà plus générale se poseront déjà il y a un poke qui a été fait avec avec Scoopeo Hein, qui nous aide à à déterminer le pricing des hébergeurs. Donc moi je suis hébergeur, je m’inscris sur Gringo. Quel prix, à quel prix de base je me règle selon. Plein de paramètres, hein, c’est quoi la taille de mon logement où est-ce que je suis localisé, et cetera et cetera. Ça, c’est un exemple d’application, hein? Parce que les hébergeurs aujourd’hui. Bon certains savent les prix, mais ils ont aucune idée de ce qu’ils sont dans la bonne gamme de prix ou quoi ça c’est un exemple applicatif.
– Marc — 34:17 :
Est-ce que tu penses qu’il y a beaucoup de valeur? Mieux régler les prix, les régler automatiquement entre guillemets de façon optimale, parce que c’est une grosse marge d’amélioration.
– Guillaume — 34:26 :
Ça dépend comment on le voit hein, mais je pense que de toute façon, tout ce qui est machine learning. Et cetera va être pour moi plutôt dans un stade 2, c’est à dire quand on aura utilisé les leviers d’optimisation les plus basiques, hein, ça, ça sera des leviers d’optimisation qui vont devenir de manière incrémentale. Je pense que là on a quelques leviers d’optimisation qui sont un peu radicaux, on va dire et qui vont avoir des gros effets. Mais quand on sera un peu plus mature dans un an ou 2, là on sera un peu bloqué. On n’aura pas vraiment de grippe sur le l’optimisation. Si on va pas dans des sujets type machine learning. Et je pense que bah y a des gros sujets d’optimisation chez nous, hein, c’est tout ce qui va être ben réglage de prix hein d’un hébergeur et voilà, c’est très Manuel. Si on avait une machine qui est automatiquement leur règle, leur prix. Sans qu’il y a rien à faire et que voilà. Leurs prix sont optimisés en temps réel ou sur ce qu’ils ont fait dans le passé, juste les prix du futur sont mis comme ça, rien que ça. C’est une application qui qui a une valeur business énorme hein? Après, il y a tout ce qui va être ranking algo hein, donc toi t’es voyageurs, t’arrives sur gringo qui est ce que tu vois en premier? Je pense qu’avoir des résultats de recherche qui correspondent à ton profil en tant qu utilisateur mais aussi à ce qui est disponible, ce qui est disponible au bon prix, et cetera quand. Là, il y a du gros potentiel. Optimisation aussi quoi.
– Marc — 35:47 :
Ouais. Oui, c’est à dire qu’il y a un double enjeu, y a y a celui de mieux, c’était les prix, on va dire pour optimiser à la marge le chiffre d’affaire mais aussi l’adoption finalement de l’outil. Si les si les prix sont mis n’importe comment, vos utilisateurs de transaction ne se fera pas quoi tout.
– Guillaume — 36:02 :
Simplement, et donc il y a plusieurs enjeux là dessous, en fait hein? Y a un enjeu d’expérience, utilisateur de satisfaction client y a un enjeu de conversion pour que ça parce que si un gars a mal réglé ces prix-là ça passe pas quoi en gros y a une demande qui est faite, mais la résa n’est pas validée. Il y a aussi un enjeu de. D’efficacité opérationnelle, ça risque client hein? C’est à dire que si on doit courir après tous les hébergeurs pour qu’ils aillent bien régler leurs prix à. Bonjour Monsieur, vous avez mal réglé vos prix? Est-ce qu’on peut le faire avec ensemble au téléphone, et cetera? Enfin tu vois ça a un coût monstrueux à l’échelle hein. Et donc ça, c’est là que la data peut intervenir de ce style machine learning par exemple sur une problématique qui est en même problématique de Skype en fait, hein, oui, c’est pour changer d’échelle qu’on a besoin de la machine.
– Guillaume — 36:43 :
Exactement, voilà.
– Marc — 36:46 :
Ok pour conclure sur gringo. Peut-être de façon générale, c’est quoi l’avenir pour vous?
– Guillaume — 36:51 :
Euh bah l’avenir il est-il est de se développer encore plus hein? Là on a on a un double enjeu donc qui est de bah passer à l’échelle? Cette offre d’hébergement durable que l’on a et et la clientèle qui va avec mais aussi aller plus loin dans l’innovation, la différenciation avec des fonctionnalités et des transports notamment. J’en parlais, voilà avec d’autres d’autres choses qui qui vont faire qu’on n’est pas juste Airbnb Green, mais qu’on est bien plus que ça. Mais bon je vais pas rentrer trop dans le détail mais on a une roadmap qui est vraiment passage à l’échelle et innovation. Voilà dans les prochains mois. Donc là on cette fonctionnalité des transports, tu peux nous en dire plus?
– Guillaume — 37:26 :
C’est en cours d’user Research, c’est un cours d’on analyse beaucoup de data pour pour se faire une idée, on va faire des tests, mais ça peut être des développements techniques peuvent être très lourds donc il faut y aller étape par étape, tester, prendre la data itérer et ça sur un mode vraiment agile de ce point de vue là qu’on qu’on va y aller.
– Marc — 37:45 :
Quoi merci beaucoup Guillaume.
– Guillaume — 37:47 :
Merci Marc.
– Guillaume — 37:49 :
Merci d’avoir écouté data driven One One si vous avez, mais n’hésitez pas à vous abonner à la chaîne, à liker et à partager à très vite.