Google : deuxième départ forcé à la direction de la recherche "éthique de l'intelligence artificielle"

Guillaume Belfiore
Lead Software Chronicler
22 février 2021 à 16h35
1
© Shutterstock
© Shutterstock

Google semble en pleine restructuration de sa division dédiée à l'intelligence artificielle. Une autre responsable affirme avoir été licenciée.

Google ne semble pas vraiment apprécier les travaux menés par ses chercheurs dans le secteur de l'intelligence artificielle. Le géant californien a en effet remercié trois de ses collaborateurs.

Accusée de violer le code de conduite

Sur son compte Twitter, Margaret Mitchell explique avoir été bloquée de la société pendant plusieurs semaines avant d'apprendre qu'elle avait été licenciée.

Pour mémoire, elle avait largement critiqué la nouvelle procédure imposée par Google à ses chercheurs visant à consulter systématiquement les équipes de relations publiques et légales de la société avant de poursuivre leurs travaux portant sur certains sujets sensibles.

Margaret Mitchell expliquait que ce comité de relecture, issu d'une politique mise en place en juin dernier, commençait à interférer avec la nature même des travaux. Elle affirmait ainsi : « Si nous effectuons des recherches en accord avec notre expertise et que nous ne sommes pas en mesure de publier cela parce que cela n'est pas aligné avec le haut niveau de qualité d'une équipe de relecteurs, alors nous commençons à avoir un sérieux problème de censure ».

Le magazine Axios rapporte les propos d'un porte-parole de Google, lequel justifie ce licenciement en affirmant que l'employée avait sorti de la société des données confidentielles, ainsi que des données personnelles des autres employés.

Google fait le ménage

Ce n'est pas la première affaire du genre chez Google. En fin d'année dernière, nous rapportions que l'entreprise avait licencié la docteure Timnit Gebru, laquelle était plus précisément spécialisée dans les enjeux éthiques liés aux travaux de l'IA.

Elle avait notamment critiqué la trop vaste quantité de données utilisées pour entraîner les algorithmes de machine learning au regard de leur impact sur la reconnaissance faciale appliquée aux gens de couleur. Elle recommandait alors une méthode plus fine.

Soulignons que Margaret Mitchell avait publiquement critiqué cette suppression de poste. Au passage, un autre membre de l'équipe, le docteur Alex Hanna, explique que cette réorganisation a également affecté le responsable Samy Bengio qui a lui aussi perdu son poste.

Sources : Twitter, Engadget, Axios

Guillaume Belfiore

Lead Software Chronicler

Lead Software Chronicler

Responsable du développement éditorial sur la partie Logiciel et Services Web sur Clubic. Précédemment journaliste, je traitais l'actualité web et mobile au sens large. Je m'intéressais aux entrailles...

Lire d'autres articles

Responsable du développement éditorial sur la partie Logiciel et Services Web sur Clubic. Précédemment journaliste, je traitais l'actualité web et mobile au sens large. Je m'intéressais aux entrailles des navigateurs web, aux nouveaux smartphones mais aussi aux systèmes d'exploitation, aux questions de sécurité ou à l'actualité e-business en général. Sinon je dois avouer que j'ai un faible pour tout ce qui touche au web design et c'est généralement le code source d'une page web que je lis en premier.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (1)

Claude_Mct
Bah, elles ne faisaient pas plus d’I.A que de beurre en broche; payées pour papoter autour des enjeux … Bla bla bla.
Bibifokencalecon
C’est un peu rude comme commentaire et perception du travail de ces 2 chercheuses. L’IA n’est pas que la partie «&nbsp;applicative&nbsp;». Dans les quelques grandes entreprises spécialisées dans l’IA que je connais, il y a un en général un département «&nbsp;Recherche théorique&nbsp;», un département «&nbsp;Recherche applicative&nbsp;» et un département «&nbsp;Produit applicatif&nbsp;» (les noms différents en fonction des organisations).<br /> Concrètement, le 1er travaille sur la «&nbsp;psychologie&nbsp;» des machines (les biais cognitifs et applicatifs, l’éthique de l’IA, etc.) composés par des spécialistes de différents métiers (vous y trouverez même des auteurs de SF, des sociologues, des neurologues, ou encore des biologistes), le 2nd est la «&nbsp;R&amp;D un peu plus traditionnel&nbsp;» intégrant autant des universitaires et des chercheurs que des équipes de développement, dont le but principal est de concevoir des modèles théoriques ou applicatifs en accord avec une certaine éthique. Et le 3ème est évidemment les équipes en charge de créer / commercialiser un produit informatique : l’exploitation de tout ce travail en amont en quelque chose de commercialisable ou utile (enfin… tout dépend du point de vue de l’organisation).<br /> Et c’est sain de fonctionner ainsi avec des équipes pluridisciplinaires capables de réfléchir à différents aspects d’un problème. Pour l’IA (un mot valise), le travail de ces équipes est justement d’éviter des dérives insidieuses et d’harmoniser les pratiques au niveau des fondamentaux de l’IA.<br /> Vous n’avez pas envie que vore Siri / Alexa ou OK Google collecte vos données sans notion de vie privée, que ces données soient exploitées non pas pour vous aider à une prise de décision ponctuelle mais à des fins d’établir «&nbsp;votre carte de profil et identité numérique&nbsp;» qui sera transmis à d’autres partis sans votre accord ou intérêt, ou encore émettent des recommandations biaisées volontairement ou involontairement qui au final vous influenceraient sans que vous en ayiez conscience. Car une fois en place, cela devient systémique. Et quand cela l’est, il est très difficile de revenir en arrière.<br /> C’est donc parce que c’est encore «&nbsp;nouveau&nbsp;» comme champ de domaine applicatif qu’il est important d’avoir ce genre de travail théorique. Ces groupes de travail font partis de collectifs (universitaire, public ou privé) avec aussi des obligations de partage. Et ceux qui jouent le jeu (une majorité) sont gagnants dans cet échange. Cela permet aussi à des équipes R&amp;D ou applicatives de gagner en temps et investissement. Et ce n’est pas désintéressé pour ces spécialistes comme ces organisations : il y a tout le potentiel de reconnaissance internationale et leadership.
Claude_Mct
Une confirmation, passons à autre chose, elle reste impact zéro, elle part impact positif. Le choix a été fait.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet