AccueilÉDITO

Antoine Bordes du labo de Facebook sur la recherche en IA : "le but n’est pas de vider les laboratoires publics"

Publié le

par Thibault Prévost

Alors que Facebook vient de dévoiler un plan d’investissement pour l’IA en France, rencontre avec Antoine Bordes, directeur du laboratoire Fair.

Depuis le début de la semaine, les mots "intelligence artificielle" font bruisser les couloirs de la "start-up nation", et pour cause : l’un après l’autre, deux mastodontes de la technologie – Google et Facebook – ont annoncé des plans d’investissement conséquents pour aider la France à devenir le "champion européen de l’IA" rêvé par le gouvernement. À l’occasion de l’exposition interactive "Connexions", organisée par Facebook les 23 et 24 janvier derniers à la Station F, nous avons rencontré Antoine Bordes, directeur du Facebook AI Research (Fair) de Paris, ouvert par l’entreprise en 2015. Au menu : les nouveaux objectifs du laboratoire pour les années à venir, les grands chantiers qui attendent le monde de l’IA et les enjeux liés à l’émergence de partenariats entre la recherche publique française et les conglomérats privés de la Silicon Valley.

Konbini | En quelques mots, quels sont les grands projets sur lesquels va se concentrer le Fair en 2018 ?

Antoine Bordes | Fair travaille à une recherche transversale en IA, donc on mène beaucoup de projets. Actuellement, on se concentre sur l’IA liée à la communication, notamment entre les gens et les machines. Plus particulièrement, des problématiques de reconnaissance de la parole, de traduction automatique, de langage naturel… On essaie de savoir comment un bot peut parler naturellement avec un humain, quels sont les mécanismes qui font que c’est impossible pour l’instant. On s’est rendu compte que pour qu’un bot parle mieux avec un humain, il faut qu’il ait une meilleure compréhension du monde, ce qui est très difficile à implémenter dans une machine.

Donc vous les éduquez, en quelque sorte…

On aimerait que les machines aient une compréhension basique des phénomènes qui régissent le monde, qu’ils soient sociaux ou physique. Par exemple, quand on parle avec un interlocuteur, la plupart des gens sont capables de s’adapter au niveau de connaissances supposé de son interlocuteur. On ajuste son niveau de langage pour être informatif. C’est très difficile pour les machines, ce qui fait que parfois elles donnent l’impression de se répéter, de parler pour ne rien dire…

D’autre part, on aimerait avoir des machines qui ont une connaissance du monde physique pour qu’elles sachent, par exemple, qu’un humain ne peut pas soulever une voiture ou que quand on fait tomber un verre d’eau, on va s’éclabousser – et que du coup, ce n’est pas pareil de faire tomber un verre d’eau qu’un stylo. Ce que l’on appelle le sens commun est extrêmement difficile, et on pense que cela fait partie des choses qui vont profondément changer notre interaction avec elles.

En quoi ce genre de travaux peut générer des outils utiles à l’activité de Facebook ?

Il faut savoir que le Fair ne travaille pas sur des produits ou des applications Facebook directs. On est un laboratoire de recherche fondamentale et on mène ses projets pour faire avancer l’état de l’art de la recherche en IA. Après, c’est vrai que la communication entre des bots ou un bot et un humain se marient très bien avec la mission de Facebook, mais on va le faire dans un cadre académique fondamental.

Après, si on arrive à trouver un moyen pour que les machines comprennent mieux, ou qu’on améliore les modèles de traduction, il va y avoir évidemment un transfert dans les produits Facebook, qui va être fait par un laboratoire de recherche appliquée et qui va améliorer l’expérience utilisateur, mais ce n’est pas notre but premier.

Vous avez donc annoncé un plan d’investissement de 10 millions d’euros pour doubler le nombre de salariés du laboratoire. Quels sont les objectifs à long terme du Fair ?

On va investir 10 millions d’euros pour la recherche académique, et on va doubler nos effectifs. Les dix millions d’euros vont servir à embaucher plus de doctorants, financer des bourses d’excellence, créer un fonds de collecte d’ensemble de données et faire le don de serveurs de calcul pour la recherche académique. Tout cela aide à rendre plus performant l’écosystème de recherche français. Les objectifs à long terme ? Faire mieux, partout !

Après, il y a des directions… Améliorer la communication, la traduction, la reconnaissance de la parole et la compréhension du monde par les machines, ce qui passe par la reconnaissance de photos, de vidéos – et c’est important partout dans Facebook. Ça fait deux ans et demi qu’on est à Paris, il y a encore énormément de choses à faire, en collaboration avec le milieu académique et en recherche ouverte. Tout ce qu’on a fait et que l’on fait a été publié et sera publié en open source.

Vous parliez également à l’époque de "collusion entre l’académique, le secteur privé et l’open source" qui "dope la recherche"… Est-ce que c’est vers cette architecture que vous souhaitez tendre en France ?

C’est quelque chose de vraiment prometteur, un modèle où tout le monde y gagne. La recherche industrielle, en particulier Facebook, a des moyens supérieurs à l’académique. On a des ressources de calcul ou une concentration de talents plus importantes dans notre laboratoire, qui pourraient bénéficier d’avoir des professeurs [académiques] qui viennent travailler là-bas, mais notre but n’est pas de vider les laboratoires publics pour prendre tout le monde.

Il y a des projets très importants en public qui ne sont pas menés en industriel, le public forme les étudiants, et on en est hyper conscients, donc l’idée c’est que tout le monde puisse s’y retrouver. On ne veut pas que tout l’Institut national de recherche en informatique et automatique (Inria) vienne travailler pour Facebook, pour schématiser. Par contre, avoir certains professeurs qui viennent passer un ou deux jours chez nous et qui continuent à encadrer des étudiants, ça c’est bon. Quand ils viendront travailler chez nous, ils auront la liberté de publier et "d’open sourcer" leur code.

Vous étiez au Forum parlementaire sur l’IA, en novembre dernier… comment on concilie différentes idéologies et intérêts autour de l’IA – entre un Cédric Villani, un Laurent Alexandre, un Bruno Le Maire – pour faire de la France un "leader de l’IA" comme le souhaite l’Élysée ?

Il y a un mouvement hyper porteur en France en ce moment autour de l’innovation et de l’IA, beaucoup de start-up, de laboratoires, des leaders dans la recherche académique mondiale. Après, concilier les intérêts est une équation compliquée – c’est pour ça qu’on a mis un très bon mathématicien pour la résoudre !

Ce plan, c’est une indication sur ce que l’on pense important. On pense qu’il faut des moyens de calcul centralisés pour les universités, qu’il faut aider à la collecte de données ouvertes pour la recherche, qu’il faut aider les étudiants à faire tout leur cursus académique vers l’IA et pas seulement leur thèse. Ce sont des recommandations que l’on a faites à Cédric Villani et qu’on essaie de mettre en pratique en donnant des fonds.

Quelle va être votre participation à l’Open Source Initiative de l’État ?

Ça reste à arbitrer. L’idée, c’est qu’on fait une enveloppe, gérée par cette initiative open source… sauf qu’elle n’existe pas vraiment. Pour le moment, la collecte de données est morcelée, alors que les données ouvertes sont essentielles à la recherche. On ne veut pas dire quoi faire ou comment faire, on va simplement donner de l’argent pour que les gens puissent s’exprimer. Après, on va donner des recommandations sur l’usage fait de ces données, en particulier pour qu’elles soient dans le domaine ouvert après collecte.

Ne peut-on pas craindre un mélange des genres lorsque l’on lie des données publiques et un laboratoire associé à une entreprise comme Facebook, qui fait commerce des données ?

On ne fait pas le commerce des données : notre business model est basé sur les interactions des utilisateurs sur la plateforme, mais les données restent dans Facebook, on ne les vend pas. La recherche qu’on fait dans notre laboratoire utilise pour certains projets un peu de données Facebook – mais vraiment la minorité, puisque tous les résultats qu’on publie sont faits sur des données publiques. On pense souvent qu’à Facebook, on a les données, donc on fait de la meilleure recherche IA, mais ce n’est pas le cas. Les données, il faut savoir les utiliser.

Aujourd’hui, il ne faut pas perfectionner les algorithmes existants, il faut en trouver de nouveaux, et on peut casser les modèles existants avec des petits ensembles de données. Oui, notre labo est financé par Facebook mais vit dans le domaine public, et je pense que le milieu académique a compris qu’on était un labo de recherche de qualité avec une éthique de recherche très bonne, et on est extrêmement bien vus dans la communauté comme quelqu’un qui joue le jeu. Ensuite ce fonds de données : c’est un chèque qui sera remis au ministère de la Recherche une fois les arbitrages terminés…

Vous êtes en arbitrage en ce moment ?

On discute avec l’Inria, le CNRS et le ministère de la Recherche pour savoir comment ces fonds seront les mieux utilisés. Quand on aura déterminé qui sera le dépositaire de ces fonds, on fera le chèque et on les laissera piloter. On n’aura aucun contrôle sur les données collectées. On veut juste qu’à la fin, ce soit en open source. Ça peut être des données médicales, télécoms, du texte, de l’archéologie… On ne pilotera pas ça.

Comment éviter un fiasco de partenariat public-privé comme celui entre Google et le ministère de la Santé britannique l’année dernière ?

C’est un parallèle intéressant car il est extrêmement différent. Avec Google, l’idée c’était qu’il y avait des données qui étaient collectées et utilisées par le laboratoire DeepMind pour leur recherche, du traitement ciblé, etc. Nous, on a une enveloppe – assez conséquente – qu’on va donner à un organisme chargé de piloter, on applaudit et on regarde.

On utilisera peut-être ces données, mais elles seront en domaine ouvert, elles ne seront pas pilotées pour des applications qu’on souhaite faire. J’aimerais qu’il y ait un comité de scientifiques français qui décide comment "ventiler" les crédits. Si on nous demande des recommandations, on les donnera, mais on ne va pas flécher quoi que ce soit.

Quels sont les grands chantiers de l’IA dans les années à venir ?

Il y a deux aspects à séparer. D’une part, l’IA d’aujourd’hui, par le biais du code open source, qui a un véritable impact sur le business, la médecine, les transports, etc. Il n’y a pas à attendre une sorte de théorie de la singularité, ou des machines très intelligentes, pour voir que l’IA est déjà utile. Après, sur l’autre aspect – créer des machines plus intelligentes, avec une meilleure compréhension du monde –, je n’ai pas d’horizon.

Avoir un meilleur sens commun pour avoir des machines qui comprennent mieux quand on leur parle, c’est un défi qui cristallise beaucoup de difficultés et sur lequel il y a beaucoup de faux espoirs. Il faut être extrêmement vigilant, car on arrive à des choses utiles, comme Alexa ou Google Home, qui peuvent faire des commandes vocales simples et efficaces, mais par contre pour faire des discussions de plusieurs minutes… Il faut faire attention.

À voir aussi sur konbini :