Ok, donc voilà, moi j'ai fait stand dans des startups avec des systèmes qui marchaient et d'autres qui ne marchaient pas. Et en gros, moi ce que je conclue de ça, c'est que tout part d'abord d'une volonté de faire de la responsabilisation. Donc voilà, il y a un peu ce concept de responsabilité radicale où on dit « quand quelque chose se passe, c'est 100% de ma faute et j'assume tout le truc ».
Par exemple, tu sors de chez toi, il flotte, t'es trempé, tu peux dire « ah merde, bon ben il n'a plus, j'y peux rien ». Non, c'est de ta faute, fallait penser « ah regarde la météo ». « Ah ben t'as regardé la météo ? » Ben non, t'es un con, fallait penser à prendre un parapluie, j'en sais rien. C'est la responsabilité radicale.
Et quand c'est une third party, donc par exemple quelqu'un dans la boîte qui est là « ah ouais non, un tel il n'a pas répondu ». Non, non, il fallait mettre une deadline ou « ah il fallait mieux tourner ton message » ou « ah il fallait être plus pushy pour aller le voir ». En fait, toujours se dire « ok, c'est de ma faute et à minima, qu'est-ce que j'aurais pu faire pour modifier la situation ? »
Et à minima, l'exemple extrême, c'est si vraiment il n'y avait rien à faire physiquement pour obtenir l'action voulue, ben vous avez à minima la responsabilité radicale de vous dire « ben oui, mais ma perception de ce qui se passe, c'est moi qui l'ai choisi ».
Par exemple, j'ai regardé les météos, j'avais un parapluie, mais en fait, je sais pas, il y a une bombe qui a explosé, j'ai perdu mon parapluie et il pleuvait. Ben ouais, mais en fait, vous avez à minima la responsabilité de vous dire « putain, il pleut, c'est vraiment une journée de merde, je vais m'asseoir par terre et déprimer ». Ou « ben non, en fait, il pleut, c'est trop bien, c'est épique », comme qui dirait.
Voilà, donc à la base, la responsabilité radicale.
Le deuxième point, c'est une fois qu'on a cette envie de responsabilité radicale à la racine de l'entreprise, c'est d'avoir des processus extrêmement solides et bien documentés. Parce que sans processus bien solide et documenté, les employés ne savent plus quoi faire. Après, bien sûr, on part de zéro et il faut bien que quelqu'un les crée, donc il faut qu'il fasse ce processus.
Ensuite, il doit y avoir une couche culturelle où on fédère ces personnes-là, ces employés, autour d'une vision et d'un objectif commun. Et pas juste de dire « ah ben en fait, développe-moi cette application ». Ben non, en fait, cette application, elle sert à quoi ? C'est quoi l'objectif très macro, très high level ? Qu'est-ce qu'on construit ensemble ? C'est quoi le rêve qu'on construit ?
Qu'est-ce qui nous inspire ? Quelle est la valeur qu'on va apporter à la société ? Il faut qu'il y ait quelque chose qui drive les personnes de manière un peu intrinsèque et qui se connecte à eux, leur envie de créer de la valeur et de faire du bien dans le monde.
Ou peut-être, si vous avez une entreprise complètement evil, genre de vous dire « dans ce cas-là, je vais me connecter avec le désir de mes employés de faire le mal dans le monde, peut-être. » Je ne citerai aucune entreprise pour pas me…
Une fois qu'on a ces trois trucs, donc le distributed ownership à la base, puis des processus solides, cette culture, cette vision, cet alignement, il ne nous manque plus que des gens compétents. Donc ça, en fait, c'est des processus de recrutement super solides. Voilà, donc soft skills et hard skills.
Ensuite, je veux juste faire une mini-parenthèse, enfin une divergence là-dessus. C'est un modèle qui peut totalement s'appliquer à l'IA. Donc tout le challenge quand on manage des vraies personnes ou quand on manage des modèles, c'est de subdiviser des grosses tâches très complexes en petites tâches gérables par les employés ou les agents autonomes de l'IA.
D'ailleurs, c'est un peu le taf d'un manager dans une boîte. Dans une boîte, c'est finalement le plus gros challenge, je trouve. En tout cas, moi, j'ai géré des équipes de 3 à 40 personnes. C'est de réussir pour chaque individu de son équipe de les mettre en face d'une tâche qui est adaptée à leur niveau de compétence à l'instant T. C'est pareil avec l'IA.
Donc, en fait, on peut reprendre le même truc. Responsabilité radicale, on veut que ce soit un huis clos où chaque agent autonome de l'IA qu'on utilise, chaque maillon de la chaîne, il est autonome dans son périmètre.
Ensuite, des processus solides dans nos promptes et dans notre façon de faire le truc. On veut que ce soit des bullet points super solides. Tu utilises ce processus, tu n'en dérives pas, tu fais 1, 2, 3, 4, 5.
La couche culturelle de la vision, c'est tout le contexte qu'on va donner en disant tu veux, je ne sais pas moi, écrire un article de journal pour moi. La vision, c'est qu'on a un journal communiste. On veut que les gens partagent les ressources, un truc comme ça.
Et enfin, on est des bons agents autonomes compétents. Il faut que l'automatisation en elle-même, il faut que chaque agent, que l'output de chaque agent autonome IA, il soit super sharp et super adéquat.
Et d'ailleurs, dans l'ensemble, je crois que c'est important, c'est mieux d'avoir des petites automatisations qui se parlent les unes aux autres. Donc voilà, moi j'utilise surtout NV10 Make pour avoir des résultats qui sont clean plutôt que d'avoir, je ne sais rien moi, un truc, une chaîne avec 200, même 10 modules d'IA qui vont se parler et qui finalement, en fait, on ne se retrouve pas à pouvoir le maintenir et ça devient vite le capharnaüm.
C'est comme dans une boîte en fait. On veut faire des trucs simples et que les résultats qu'on veut atteindre soient délivrables par un minimum de stakeholders. Voilà, c'est un peu le point entre l'IA et le management.