Bard est menteur et inexact : c’est ainsi que les employés l’ont appelé pour tester en interne le chatbot de Google afin de corriger ses réponses, qui sont souvent – trop souvent, disent-ils – tout simplement farfelues. Malgré cela, Google a pris la décision de mettre sur le marché son intelligence artificielle générative.

Et c’est justement son lancement officiel – bien que sous le label “expérimentation” – qui a hérissé le poil de ceux qui travaillent chez Google : plusieurs employés ont en effet estimé que l’entreprise était coupable d’avoir opté pour une sortie précipitée afin de suivre la concurrence au détriment de la question éthique – alors même que le code de conduite suggère le contraire. En d’autres termes, la sortie prématurée de Bard pourrait être imputée à OpenAI et à son ChatGPT.

L’éthique en arrière plan

Selon des documents internes, Google a demandé à ses employés chargés de l’éthique de ne pas se mêler du développement de l’IA et de ne pas essayer de boycotter les projets liés à l’IA. Là encore, il est clair que l’entreprise entend accélérer au maximum le processus de croissance de l’outil, en évitant les interruptions qui pourraient lui coûter cher sur le marché.

Une confirmation possible de la stratégie à l’œuvre à Mountain View nous vient de Meredith Whittaker, présidente de Signal Foundation et ancienne responsable de Google : L’éthique de l’IA a été reléguée au second plan. Google, cependant, est d’un autre avis : “Nous continuons à investir dans les équipes qui travaillent à appliquer nos principes d’intelligence artificielle à notre technologie“, a déclaré un porte-parole, réaffirmant que l’IA responsable reste une priorité absolue.

Des compromis en vue ?

Jen Gennai, responsable de l’équipe d’innovation de Google, a expliqué que, dans certains contextes, des compromis sont nécessaires pour accélérer le processus de mise sur le marché d’un produit ou d’un service donné. Et si, pour la sécurité des enfants, on ne peut descendre en dessous de 100 % – c’est donc un cas sans compromis -, dans d’autres cas, on peut descendre jusqu’à 80-85 %. On ne sait pas quel est le pourcentage pour Bard, mais le fait est que Google a décidé d’accélérer le processus en présentant une version expérimentale de l’IA. Et c’est précisément derrière le terme “expérimental” que l’entreprise veut se protéger des critiques des employés et de l’opinion publique : une expérience ne peut qu’avoir des problèmes, après tout.

Mais comme le rapporte Bloomberg, “les employés disent qu’ils sont préoccupés par le fait que la vitesse de développement ne laisse pas assez de temps pour étudier les dommages potentiels“. Pas tous cependant, puisque certains d’entre eux estiment que l’entreprise a mis en place des politiques de contrôle et de sécurité plus strictes que ses concurrents – OpenAI en tête.

Partager

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *