L’intelligence artificielle traverse aujourd’hui une mutation silencieuse mais radicale. Après une décennie dominée par la course aux modèles toujours plus massifs et performants, l’industrie bascule vers une nouvelle priorité : transformer ces prouesses techniques en solutions concrètes qui répondent à de vrais besoins utilisateurs. Ce changement de paradigme, Mehdi Ghissassi l’incarne parfaitement. Son parcours, des laboratoires de DeepMind et Google Brain jusqu’à son poste actuel de Chief Product and Technology Officer chez AI71, illustre cette transition majeure de l’ère des modèles vers l’ère des applications.
Formé aux problématiques des marchés émergents avec Google Fiber et l’initiative Next Billion Users, puis plongé dans la recherche fondamentale la plus avancée, il a développé une vision unique : celle d’un ingénieur-produit capable de faire le pont entre les percées scientifiques et leur déploiement à grande échelle.
Son témoignage révèle comment l’industrie de l’IA redéfinit aujourd’hui ses priorités, passant de la fascination pour la technologie pure à l’obsession pour l’impact mesurable et la création de valeur réelle.
De Google aux Émirats
Le parcours du Marocain Mehdi Ghissassi n’a rien d’une trajectoire linéaire classique dans la tech. Avant même de plonger dans les profondeurs de la recherche en intelligence artificielle, il a passé des années à travailler sur des problématiques d’accès et d’infrastructure dans les marchés émergents. Chez Google, son travail sur Google Fiber puis sur l’initiative Next Billion Users lui a donné une sensibilité particulière aux contraintes du monde réel : connexions limitées, infrastructures fragiles, besoins utilisateurs radicalement différents de ceux des marchés développés.
Cette expérience forge chez lui une conviction profonde : la technologie ne vaut que par sa capacité à résoudre des problèmes concrets, pas par son élégance théorique. Lorsqu’il rejoint ensuite DeepMind et Google Brain, il apporte avec lui cette perspective terrain rare dans les laboratoires de recherche, où l’on peut parfois perdre de vue l’utilisateur final au profit de l’excellence académique.
Cette double casquette, chercheur et praticien, devient son atout majeur lorsqu’il prend la direction produit et technologie chez AI71, une entreprise basée aux Émirats arabes unis qui ambitionne de construire des agents d’IA pour le travail intellectuel et des solutions verticales dans des secteurs critiques comme la santé, la construction ou l’éducation. Son rôle aujourd’hui consiste précisément à orchestrer ce dialogue permanent entre l’innovation de pointe et les besoins opérationnels, tout en naviguant les exigences spécifiques de souveraineté des données qui caractérisent le marché moyen-oriental 🌍.
Les trois âges de l’IA et le basculement vers le multimodal
Pour comprendre où nous en sommes aujourd’hui, Mehdi Ghissassi propose une lecture historique en trois phases distinctes qui ont marqué l’évolution récente de l’intelligence artificielle. Le premier âge, celui de la vision par ordinateur, a véritablement décollé après 2012 avec le moment ImageNet, lorsque les réseaux de neurones convolutifs ont pulvérisé les records de classification d’images et ouvert la voie à toutes les applications de reconnaissance visuelle que nous connaissons aujourd’hui.
Cette percée a démontré pour la première fois que l’apprentissage profond pouvait surpasser les approches traditionnelles sur des tâches complexes. Puis vint le deuxième âge, celui du langage naturel, amorcé par l’architecture Transformer en 2017 et concrétisé par des modèles comme BERT, T5 et bien sûr les différentes versions de GPT. Cette révolution a permis aux machines de comprendre et générer du texte avec une fluidité inédite, ouvrant des applications allant de la traduction automatique à la génération de code. Mais nous entrons désormais dans un troisième âge, qualifié de multimodal, où les systèmes d’IA jonglent simultanément avec le texte, l’image, la vidéo, l’audio et même la robotique.
Cette convergence change radicalement la donne : au lieu de modèles spécialisés pour chaque modalité, nous construisons des systèmes capables de raisonner de manière transversale, de comprendre qu’une image complète un texte ou qu’une voix porte des émotions qui enrichissent le sens des mots prononcés.
Cette évolution technique s’accompagne d’un changement tout aussi fondamental dans la manière de créer de la valeur : les gains ne proviennent plus uniquement du pré-entraînement massif sur des quantités astronomiques de données, comme ce fut le cas lors du passage de GPT-3 à GPT-4, mais de plus en plus du post-training avec des techniques comme le RLHF (Reinforcement Learning from Human Feedback) et surtout du raisonnement à l’inférence, qui permet d’améliorer la qualité des réponses au moment même où l’utilisateur pose sa question 💡.
Du laboratoire au marché
C’est peut-être le conseil le plus précieux que Mehdi Ghissassi tire de ses années chez Google : « Ne pas tomber amoureux de la technologie, mais partir des problèmes utilisateurs. » Cette maxime, simple en apparence, va à contre-courant de la culture académique qui domine encore largement le secteur de l’IA, où l’on célèbre volontiers les prouesses techniques pour elles-mêmes, indépendamment de leur utilité pratique.
Chez Google, il a développé une méthode qu’il appelle le « matchmaking » entre le « research store » et le « problem store » : d’un côté, un catalogue de percées scientifiques issues des laboratoires, de l’autre, un inventaire des problèmes réels rencontrés par les utilisateurs ou les équipes produit. Son travail consistait à identifier les intersections fertiles, là où une avancée de recherche pouvait directement résoudre un besoin opérationnel.
Les résultats parlent d’eux-mêmes : AlphaFold a révolutionné la prédiction de structures protéiques avec des applications immédiates en biologie et médecine, les algorithmes de compression optimisés par apprentissage ont réduit les coûts de diffusion vidéo sur YouTube, et l’utilisation du reinforcement learning pour piloter les systèmes de refroidissement a permis de diminuer de 40% la consommation énergétique des data centers de Google, un gain colossal tant sur le plan environnemental qu’économique.
Cette approche méthodique repose sur plusieurs étapes clés : d’abord identifier un problème mesurable et significatif, puis construire une preuve de concept qui démontre la faisabilité technique, ensuite intégrer la solution dans les workflows existants sans bouleverser toute l’organisation, et enfin mesurer l’impact réel en conditions opérationnelles. Ce processus exige de la patience, de la diplomatie et une capacité à parler à la fois le langage des chercheurs et celui des product managers, deux tribus qui ne se comprennent pas toujours naturellement dans les grandes organisations technologiques 🔧.
Souveraineté des données et déploiements
L’une des caractéristiques les plus marquantes du positionnement d’AI71, et plus largement de l’évolution du marché de l’IA, concerne la souveraineté des données. Dans un monde où les modèles d’IA sont entraînés sur des milliards de points de données et où chaque interaction avec un assistant intelligent génère des informations potentiellement sensibles, la question du contrôle et de la localisation de ces données devient critique.
Pour des secteurs comme la santé, la finance ou la défense, l’idée d’envoyer des données confidentielles vers des serveurs cloud situés à l’autre bout du monde, gérés par des entreprises étrangères, devient tout simplement inacceptable. D’où l’accent mis par AI71 sur les déploiements on-premise, c’est-à-dire directement dans les infrastructures des clients, leur garantissant un contrôle total sur leurs données. Cette approche répond à une demande croissante, particulièrement forte au Moyen-Orient, en Asie et dans certains pays européens sensibles aux questions de souveraineté numérique.
Elle implique cependant des défis techniques considérables : il faut adapter des modèles conçus pour tourner sur des grappes massives de GPU dans le cloud pour qu’ils fonctionnent efficacement dans des environnements plus contraints, optimiser les performances pour limiter les besoins en calcul, et concevoir des systèmes de mise à jour et de maintenance qui ne nécessitent pas de connexion permanente à internet.
Au-delà des aspects techniques, cette stratégie traduit aussi une évolution géopolitique majeure : après des années de domination américaine sur l’IA, de nombreux pays cherchent à développer leur propre écosystème d’intelligence artificielle, avec leurs données, leurs modèles et leurs infrastructures, considérant désormais l’IA comme un actif stratégique au même titre que l’énergie ou les télécommunications 🛡️.
Organisations et inertie
L’un des enseignements les plus contre-intuitifs du parcours de Mehdi Ghissassi concerne le poids de l’inertie organisationnelle et l’importance de la distribution par rapport à l’avance technologique pure. Lorsque ChatGPT a explosé fin 2022, beaucoup d’observateurs ont cru que Google, malgré toute son expertise en IA et le fait que les Transformers soient nés dans ses laboratoires, serait rapidement dépassé. Pourtant, en moins de vingt-deux mois, Google a rattrapé son retard avec Gemini, démontrant que la densité de talents, l’accès aux données à grande échelle et la puissance de calcul disponible comptent autant sinon plus que le fait d’être premier sur le marché.
Cette résilience s’explique par plusieurs facteurs structurels : la culture académique et bottom-up de Google, qui permet aux ingénieurs de prendre des initiatives et d’expérimenter rapidement, l’accès à des volumes de données d’entraînement incomparables grâce à Search, YouTube, Gmail et tous les autres services, et surtout une infrastructure de distribution déjà existante avec des milliards d’utilisateurs. Introduire une nouvelle fonctionnalité d’IA dans l’écosystème Google, c’est potentiellement toucher instantanément une part significative de l’humanité connectée. Cette leçon vaut bien au-delà de Google : dans l’industrie de l’IA, avoir le meilleur modèle ne suffit pas si on ne sait pas le déployer à grande échelle, l’intégrer dans des workflows existants, le rendre accessible et utile pour des millions d’utilisateurs.
C’est pourquoi Mehdi insiste tant sur l’importance de trouver l’intersection des intérêts dans les organisations, d’avancer par étapes plutôt que de vouloir tout révolutionner d’un coup, et d’accompagner la transformation en formant les équipes et en démontrant la valeur concrète à chaque étape. Les entreprises qui réussiront dans l’IA ne seront pas nécessairement celles qui publieront les papiers les plus cités, mais celles qui sauront transformer leurs percées en produits utilisés quotidiennement par des millions de personnes, et monétiser cette adoption de manière durable 📊.
Investir dans l’IA
Fort de son expérience et de sa position privilégiée à l’intersection de la recherche, du produit et désormais de l’écosystème entrepreneurial, Mehdi Ghissassi partage une conviction forte sur les facteurs de succès des startups d’IA : le facteur numéro un reste les fondateurs. Cette affirmation peut sembler banale dans le monde du capital-risque, où tout le monde prétend miser d’abord sur les équipes, mais elle prend un relief particulier dans le contexte de l’IA où la tentation est grande de se laisser éblouir par la sophistication technique ou l’architecture d’un modèle.
Ce qui compte vraiment, c’est la complémentarité des fondateurs, leur capacité à traverser les inévitables moments de doute et d’échec, leur résilience face aux pivots nécessaires. Viennent ensuite l’adéquation entre l’équipe et le marché visé, la vitesse d’exécution qui fait la différence dans un secteur où les cycles d’innovation sont désormais mesurés en mois plutôt qu’en années, et la qualité de l’entourage, ces premiers employés, advisors et investisseurs qui apportent non seulement du capital mais aussi du réseau, de l’expérience et des portes d’entrée chez les clients.
Cette grille de lecture évite le piège dans lequel tombent beaucoup d’investisseurs débutants en IA : surévaluer l’importance d’avoir quelques PhDs de Stanford dans l’équipe ou d’utiliser la dernière architecture à la mode, et sous-évaluer les capacités commerciales, la compréhension du marché et la capacité à pivoter rapidement quand les premières hypothèses se révèlent fausses.
Dans un secteur où les barrières techniques s’abaissent progressivement grâce à la diffusion des modèles open source et des outils de développement, où les coûts de calcul diminuent régulièrement, l’avantage compétitif durable se construit de plus en plus sur l’exécution, la connaissance approfondie d’un domaine vertical, la qualité des données propriétaires et la capacité à construire une distribution efficace plutôt que sur l’excellence en recherche pure 💼.
Pays émergents
L’expérience de Mehdi Ghissassi dans les marchés émergents, combinée à son travail actuel aux Émirats, lui donne un point de vue unique sur les stratégies que peuvent adopter les pays qui ne veulent pas dépendre entièrement des géants technologiques américains ou chinois pour leur infrastructure d’IA. Le cas des Émirats arabes unis est particulièrement instructif : le pays a mis en place une stratégie nationale cohérente qui inclut la nomination d’un ministre de l’IA, la création du Technology Innovation Institute (TII) qui développe des modèles comme Falcon en open source, des investissements massifs dans les supercalculateurs et l’infrastructure GPU, et un écosystème de financements pour attirer chercheurs et entrepreneurs.
Cette approche holistique repose sur plusieurs piliers : d’abord, identifier les besoins nationaux spécifiques, qu’il s’agisse de préserver la langue arabe dans les modèles linguistiques ou de développer des applications pour des secteurs prioritaires comme l’énergie, la santé ou le tourisme. Ensuite, constituer des datasets locaux de qualité, car l’IA reste fondamentalement data-driven et les modèles entraînés uniquement sur des données occidentales performent mal dans des contextes différents. Puis construire ou acquérir l’infrastructure de calcul nécessaire, ce qui implique non seulement des investissements considérables en GPU mais aussi une planification énergétique adaptée, les data centers d’IA étant extrêmement gourmands en électricité.
Enfin, former un écosystème complet avec universités, centres de recherche, startups et grandes entreprises qui collaborent et se nourrissent mutuellement. Pour des pays comme le Maroc ou d’autres nations émergentes, la leçon est claire : il ne s’agit pas de copier servilement les stratégies des États-Unis ou de la Chine, mais de construire une approche adaptée aux réalités locales, en capitalisant sur des avantages spécifiques comme la proximité de marchés régionaux, la disponibilité d’énergies renouvelables bon marché, ou l’existence de talents diasporiques prêts à contribuer.
La souveraineté en IA ne signifie pas autarcie technologique, mais capacité à contrôler les actifs critiques et à participer à l’écosystème mondial depuis une position de force plutôt que de dépendance 🌐.
Bien utiliser l’IA au quotidien
Au-delà des enjeux stratégiques et industriels, Mehdi Ghissassi partage aussi des conseils pratiques pour quiconque utilise quotidiennement des outils d’intelligence artificielle. Le premier réflexe à développer consiste à vérifier systématiquement les sorties générées par l’IA, car les hallucinations, ces moments où le modèle invente avec assurance des informations totalement fausses, restent un problème persistant malgré les progrès techniques.
Cette vigilance est particulièrement cruciale lorsque l’IA génère du code, des analyses financières ou tout contenu qui servira de base à des décisions importantes. Deuxième conseil : investir du temps dans l’amélioration des prompts, c’est-à-dire la manière dont on formule ses questions et instructions à l’IA. La qualité des résultats dépend énormément de la précision et de la structure des demandes, et il existe désormais toute une discipline, le prompt engineering, qui consiste à apprendre les meilleures pratiques pour obtenir des réponses pertinentes. Troisième recommandation, particulièrement intéressante : privilégier les conversations longues en mode vocal pour donner plus de contexte au modèle.
Contrairement aux interactions textuelles brèves qui limitent la quantité d’information échangée, une discussion vocale approfondie permet à l’IA d’accumuler suffisamment de contexte pour affiner ses réponses, comprendre les nuances de votre besoin et proposer des solutions vraiment adaptées. Cette approche conversationnelle exploite un des grands avantages des modèles multimodaux récents : leur capacité à maintenir une cohérence sur de longues interactions et à s’adapter progressivement à votre style et à vos objectifs. Enfin, dernière pratique essentielle : documenter et structurer ses workflows d’utilisation de l’IA.
Plutôt que de repartir de zéro à chaque fois, sauvegarder les prompts qui fonctionnent bien, noter les contextes où tel ou tel modèle performe mieux, construire progressivement sa propre bibliothèque de techniques efficaces. L’IA générative est un outil puissant mais qui demande un apprentissage continu et une adaptation constante, car les modèles évoluent rapidement et les meilleures pratiques d’aujourd’hui seront peut-être obsolètes dans six mois ⚡.
L’ère produit
Nous vivons un moment charnière dans l’histoire de l’intelligence artificielle. Après une décennie de percées scientifiques spectaculaires, où chaque nouvelle architecture ou technique d’entraînement faisait la une et suscitait l’émerveillement, l’industrie entre dans une phase de maturation que l’on pourrait qualifier d’ère produit. Le message central que porte le parcours de Mehdi Ghissassi, de Google Brain à AI71, est limpide : les gagnants de demain ne seront pas nécessairement ceux qui auront les modèles les plus gros ou les plus performants sur les benchmarks académiques, mais ceux qui sauront relier les percées scientifiques aux réalités opérationnelles, maîtriser à la fois les données et les infrastructures de déploiement, et naviguer avec agilité l’inertie des organisations pour transformer des prototypes prometteurs en solutions adoptées massivement.
Cette transition exige un changement de mentalité profond : arrêter de tomber amoureux de la technologie pour elle-même et revenir obstinément aux problèmes utilisateurs, accepter que la distribution et les actifs existants pèsent souvent plus lourd que l’avance de recherche pure, comprendre que l’optimisation des coûts et l’amélioration incrémentale via le post-training et le raisonnement à l’inférence deviennent au moins aussi importantes que les gains de scaling.
Pour les pays et les entreprises qui souhaitent ne pas rester à quai dans cette révolution, l’avantage compétitif se construit autant, sinon plus, dans la stratégie, l’exécution, la gouvernance des données et la capacité à attirer et retenir les talents que dans les laboratoires de recherche eux-mêmes. L’intelligence artificielle sort de son adolescence technologique pour entrer dans son âge adulte commercial, où compteront avant tout la création de valeur mesurable, la résolution de problèmes réels et la construction de modèles économiques durables.
C’est cette maturité nouvelle, incarnée par des parcours comme celui de Mehdi Ghissassi, qui dessinera le visage de l’IA dans les années à venir 🚀.