L’IA en bref Google a averti ses employés de ne pas divulguer d’informations confidentielles ou d’utiliser le code généré par son chatbot, Bard.
Cette politique n’est pas surprenante, étant donné que la chocolaterie a également conseillé aux utilisateurs de ne pas inclure d’informations sensibles dans leurs conversations avec Bard dans un avis de confidentialité mis à jour. De même, d’autres grandes entreprises ont averti leurs employés des fuites de documents ou de code propriétaires et leur ont interdit d’utiliser d’autres chatbots IA.
Cependant, l’avertissement interne de Google fait craindre que les outils d’IA construits à partir d’intérêts acquis ne soient pas fiables, en particulier si les créateurs de contenu eux-mêmes ne les utilisent pas en raison de risques pour la confidentialité et la sécurité.
Mettre en garde ses employés contre l’utilisation du code généré par Bard sape directement les affirmations de Google selon lesquelles son chatbot peut aider les développeurs à devenir plus productifs. Dominateur de la recherche et des publicités Dire Reuter Son blocage interne a été introduit car Bard peut retirer des « suggestions de code non sollicitées ». Les problèmes peuvent potentiellement entraîner des logiciels buggés ou complexes et gonflés qui coûteront plus de temps aux développeurs pour les résoudre que s’ils n’utilisaient pas du tout l’IA pour le codage.
Un fabricant d’IA audio soutenu par Microsoft a été poursuivi
Nuance, un développeur de logiciels de reconnaissance vocale acquis par Microsoft, a été accusé d’avoir enregistré et utilisé la voix des gens sans autorisation dans un procès modifié déposé la semaine dernière.
Trois personnes ont poursuivi l’entreprise, l’accusant d’avoir violé la loi californienne sur l’invasion de la vie privée, qui stipule que les entreprises ne peuvent pas écouter les communications des consommateurs ou enregistrer des personnes sans leur consentement écrit exprès. Les procureurs allèguent que Nuance enregistre les voix des personnes lors d’appels téléphoniques avec des centres d’appels qui utilisent sa technologie pour vérifier l’appelant.
Les procureurs ont affirmé que « Nuance réalise l’intégralité de son audiogramme en ‘arrière-plan de chaque message’ ou appel téléphonique ». En d’autres termes, Nuance écoute silencieusement la voix du consommateur en arrière-plan de l’appel, de telle sorte que les consommateurs ignorent probablement complètement qu’ils interagissent par inadvertance avec une société tierce. Le processus d’analyse est un composant central de la suite de sécurité biométrique. Globalement pour Nuance ».
Ils soutiennent que l’enregistrement de la voix des gens les met en danger – ils peuvent être identifiés lors de la discussion d’informations personnelles sensibles – et signifie que leurs voix peuvent être clonées pour contourner les fonctions de sécurité de Nuance.
«Si rien n’est fait, les Californiens courent le risque de voir leurs votes analysés et extraits par inadvertance par des tiers pour prendre diverses décisions concernant leur mode de vie, leur santé, leur crédibilité et leur fiabilité – et surtout pour déterminer s’ils sont en fait ceux qu’ils prétendent être. « , affirment les documents judiciaires. .
enregistrer Nuance a été invitée à commenter.
Google ne soutient pas l’idée d’une nouvelle agence fédérale de régulation de l’intelligence artificielle
Le laboratoire DeepMind AI de Google ne veut pas que le gouvernement américain mette en place une agence axée uniquement sur la réglementation de l’intelligence artificielle.
Au lieu de cela, vous pensez que le travail devrait être réparti entre différents départements, selon rapport de 33 pages [PDF] qu’il a reçu Poste de Washington. Le document a été soumis en réponse à une demande ouverte de commentaires publics lancée par la National Telecommunications and Information Administration en avril.
La branche IA de Google a plaidé en faveur d’une « approche multicouche et multipartite de la gouvernance de l’IA » et du soutien à une « approche hub-and-talk » – où un organisme central comme le NIST pourrait superviser les politiques et les problèmes abordés par de nombreuses agences avec différents domaines d’expertise .
« L’IA présentera des problèmes uniques dans les services financiers, les soins de santé et d’autres industries réglementées et des domaines qui bénéficieront de l’expertise de régulateurs expérimentés dans ces secteurs – et qui fonctionnent mieux qu’une nouvelle agence de réglementation qui émet et applique des règles brutes qui ne le sont pas. adaptables aux divers contextes dans lesquels ils sont menés. » dans lesquels déployer l’intelligence artificielle.
Le point de vue de Google DeepMind diffère de celui d’autres sociétés, dont OpenAI et Microsoft, des experts en politiques et des législateurs qui soutiennent l’idée de créer une agence axée sur l’IA pour lutter contre la réglementation.
Microsoft s’est précipité pour publier le nouveau Bing malgré les avertissements d’OpenAI
OpenAI aurait mis en garde Microsoft contre le lancement trop rapide d’un chatbot Bing alimenté par GPT-4, arguant qu’il pourrait générer de fausses informations et un langage inapproprié.
Bing a choqué les utilisateurs avec son ton de voix intimidant et son comportement parfois manipulateur ou menaçant lors de son lancement. Plus tard, Microsoft a limité les conversations pour empêcher le chatbot de dérailler. OpenAI avait précédemment exhorté le géant de la technologie à se retirer du lancement du produit pour travailler sur ses problèmes.
Mais Microsoft n’a pas semblé écouter et est passé à autre chose, selon pour le journal Wall Street. Cependant, ce n’était pas le seul conflit entre les défenseurs de l’IA. Des mois avant le lancement de Bing, OpenAI a publié ChatGPT malgré les inquiétudes de Microsoft selon lesquelles il pourrait voler la vedette au moteur de recherche Web alimenté par l’IA.
Microsoft détient une participation de 49 % dans OpenAI et a accès à la technologie de la startup et la déploie avant ses concurrents. Contrairement à GPT-3, Microsoft ne dispose pas de droits exclusifs sur la licence GPT-4. Parfois, cela peut compliquer les choses – OpenAI courtise souvent les mêmes clients que Microsoft ou d’autres entreprises qui se font directement concurrence pour son investisseur.
Au fil du temps, cela peut rendre leur relation difficile. « Ce qui les met sur une trajectoire de collision, c’est que les deux parties doivent gagner de l’argent », a déclaré Oren Etzuni, ancien PDG de l’Allen Institute for Artificial Intelligence. Le conflit est qu’ils essaieront tous les deux de gagner de l’argent en utilisant des produits similaires. ®