Les fabricants de téléphones comme Google et les fabricants de puces comme Qualcomm indiquent que 2024 sera l’année de l’intelligence artificielle sur les appareils. Le mois dernier, lors de son sommet exécutif annuel, MediaTek, producteur du silicium utilisé dans des millions de téléphones et d’appareils intelligents, a souligné les avantages de l’utilisation de l’IA générative sur les téléphones. Par exemple, obtenir des réponses et des suggestions plus personnalisées plus rapidement qu’avec des solutions basées sur le cloud, avec quelques façons dont la technologie améliorera considérablement les téléphones.
Mais il y a des cas d’utilisation concrets à l’horizon, a expliqué David Kuo, directeur financier de MediaTek. Vivo prévoit un téléphone l’année prochaine avec une fonctionnalité qui permettra d’enregistrer la réunion, de la transcrire et de fournir un résumé, qui pourrait être utilisé dans les salles de réunion sensibles puisque le traitement est effectué sur l’appareil.
« S’il s’agit d’une réunion privée, vous pouvez garder les informations privées. Vous ne souhaitez pas envoyer cet enregistrement vers le cloud, vous pouvez donc le faire sur l’appareil », a déclaré Ko.
En savoir plus: 2023 a été l’année de l’IA générative. À venir sur les téléphones en 2024
En octobre, le fabricant de puces rival Qualcomm a ajouté des capacités d’IA générative directement aux puces qui alimenteront la prochaine vague de téléphones Android haut de gamme, comme le Xiaomi 14. Bien que MediaTek n’ait pas fourni de nombreux cas d’utilisation spécifiques pour l’IA générative, les deux sociétés ont suggéré la technologie You fera des suggestions plus personnalisées en examinant les modèles de comportement des gens et en manipulant les images, par exemple en les agrandissant au-delà de leurs limites d’origine.
Ajoutez à cela le nouveau Redcap de MediaTek (abréviation de « faible capacité »), des modems et des chipsets 5G destinés à aider les appareils avec de faibles charges de données (pensez aux appareils domestiques intelligents, aux écouteurs et aux accessoires), et vous disposez des bases nécessaires pour activer davantage d’appareils. les gens utilisent Et les entreprises pour se parler. Les annonces de MediaTek représentent une mise à jour de l’ancienne technologie vers l’avenir connecté dont nous entendons parler depuis des années.
La nouvelle frontière mystérieuse de l’IA générative sur appareil
L’utilisation de l’IA générative sur les téléphones présente de nombreux avantages, tels que l’obtention de réponses et de suggestions plus personnalisées plus rapidement que les solutions basées sur le cloud, avec quelques façons dont la technologie améliorera considérablement les téléphones.
Deux fonctionnalités potentielles d’IA suggérées par Kuo l’utilisent pour supprimer les objets indésirables dans les photos, un peu comme les fonctionnalités Magic Eraser de Google qui fonctionnent sur les téléphones Pixel (et le service de stockage de photos dans le cloud Google One), et créent automatiquement du texte pour correspondre aux photos à publier. les médias sociaux.
Kuo a également souligné comment l’IA générative peut améliorer les fonctionnalités de l’assistant personnel d’un téléphone grâce à des suggestions contextuelles. Si vous êtes en retard à une réunion et que votre téléphone vous indique que vous ne serez pas là, il peut vous proposer d’envoyer un message aux autres pour vous informer que vous êtes en route. Et si votre téléphone est en sourdine mais qu’un e-mail urgent arrive dans votre boîte de réception, l’Assistant peut quand même vous avertir.
Les deux nouveaux chipsets téléphoniques de MediaTek, le Dimensity 9300 pour les téléphones haut de gamme et le Dimensity 8300 pour les appareils bas de gamme, disposent d’une IA générée sur l’appareil, mais la société n’a publié des informations sur les performances que pour le premier, affirmant qu’elle peut créer un image en utilisant la diffusion stable. En moins d’une seconde, il peut exécuter des modèles d’IA avec 7 milliards de paramètres par seconde à une fréquence de 20 codes par seconde. Le Snapdragon 8 Gen 3 peut atteindre le même taux de jetons par seconde, mais la métrique n’a pas beaucoup de comparaisons en dehors de l’IA intégrée à l’appareil de la puce PC de Qualcomm (30 jetons par seconde).
Le Dimension 8300 bas de gamme peut gérer des modèles d’apprentissage des langues comportant jusqu’à 10 milliards de paramètres, tandis que le Dimension 9300 est capable de gérer des LLM comportant jusqu’à 33 milliards de paramètres.
Pour être honnête, personne n’a été en mesure d’identifier une mesure spécifique pour comparer les capacités de l’IA générative. Les « jetons par seconde » et les « milliards de transactions par seconde » sont les plus couramment utilisés à l’heure actuelle, mais MediaTek travaille avec différents partenaires de l’écosystème pour comprendre cela, a déclaré Kuo.
« Nous essayons de fournir des conseils plus détaillés et quelle est la véritable norme qui sera la plus importante du point de vue de l’utilisateur », a déclaré Kuo.
regarde ça: Les photographes professionnels de CNET réagissent aux images de l’IA
Les nouvelles frontières entraînent des défis. On craint déjà que les gens utilisent l’IA générative pour inonder Internet de fausses images et d’autres informations erronées. En présentant l’IA générative sur l’appareil, Qualcomm a présenté sa propre solution : s’associer à la plateforme d’authentification Truepic pour placer un filigrane numérique sur toutes les photos modifiées ou créées entièrement avec l’IA générative. Kuo a déclaré que MediaTek travaille avec divers partenaires pour réaliser un type d’authentification similaire qui fonctionnerait comme un « filigrane invisible » et que, que l’IA générative ait été utilisée pour modifier seulement 50 % ou 5 % de l’image, « vous obtiendrez cela. Filigrane.
« Il s’agit probablement des 5 % les plus importants », a déclaré Ko. « Peut-être que c’est ton visage. »
En savoir plus: Dans quelle mesure cette image est-elle proche de la vérité ? Ce qu’il faut savoir à l’ère de l’intelligence artificielle
Au-delà des téléphones, MediaTek espère que l’IA générative sera un jour utile dans le domaine automobile. Après avoir réaffirmé son partenariat avec le fabricant de GPU Nvidia sur la plateforme Summit, la société a émis l’hypothèse que les voitures pourraient utiliser une technologie couplée à des caméras externes pour identifier les objets devant elles, et combinée à des gestes, pour signaler quelque chose au loin que le conducteur pointe. à. Les voitures peuvent remarquer une conduite irrégulière et demander si le conducteur se sent somnolent, ou l’avertir lorsque le feu passe au vert.
Ko a souligné qu’un assistant personnel pourrait également être utile dans la voiture. Par une journée chaude qui fait monter la température dans les voitures, les conducteurs allumeront probablement la climatisation ou baisseront les vitres immédiatement après avoir démarré leur voiture, mais l’IA peut remarquer quand les choses refroidissent et inviter le conducteur à ouvrir ses vitres ou à appeler le climatiseur froid. S’ils se heurtent à des embouteillages alors qu’ils se rendent à une réunion, l’assistant peut envoyer un message indiquant aux autres participants que le chauffeur sera en retard.
Plus connectés en 2024
Bien que les appareils puissent utiliser l’IA générative hors ligne, l’amélioration de la connectivité dans les réseaux et entre les appareils présente des avantages significatifs. Les premiers chipsets compatibles Wi-Fi 7 de MediaTek ont été lancés l’année dernière, et les chipsets de cette année les améliorent, même si la société regarde également au-delà de cela.
« Quand nous examinons ces technologies comme le Wi-Fi 7 et le passage au Wi-Fi 8, elles conduisent toutes à des débits de données beaucoup plus élevés, mais plus important encore, à des choses comme une latence plus faible », a déclaré Moynihan.
Le Wi-Fi 7 offre plusieurs avantages par rapport à son prédécesseur, tels que le fonctionnement multi-liens, qui permet aux appareils de profiter simultanément des bandes Wi-Fi 2,4 GHz, 5 GHz et/ou 6 GHz pour une meilleure connexion (sur Similaire à comment les opérateurs regroupent plusieurs fréquences du spectre 5G pour obtenir un meilleur signal pour les utilisateurs de téléphones). Le Wi-Fi 7 arrivera l’année prochaine sur les chipsets MediaTek pour les terminaux d’accès sans fil fixes des principaux opérateurs, permettant aux utilisateurs de profiter de ces avancées en matière de connectivité avec leur propre service Internet domestique 5G.
En savoir plus: Les meilleurs téléphones de 2023
RedCap 5G profite de la faible latence et d’autres avantages des réseaux mobiles 5G à moindre coût, permettant aux appareils peu coûteux de profiter des réseaux de nouvelle génération. Les modems 5G actuels offrent une puissance, des performances et une portée idéales pour les téléphones mobiles, mais excessives pour les petites solutions IoT et de maison intelligente, a déclaré Moynihan.
« Vous n’avez pas besoin de 10 gigabits par seconde, mais ce dont vous avez réellement besoin, c’est de quelques centaines de mégabits par seconde », a déclaré Moynihan. Grâce aux réseaux 5G autonomes développés par les opérateurs et aux nouveaux appareils construits pour suivre l’ensemble de normes 3GPP Industry Alliance Release 17, les gadgets plus simples pourront profiter de la 5G avec une faible latence et une faible consommation d’énergie.
À l’avenir, la connectivité pourrait avoir des liens d’IA générés sur l’appareil à mesure que la technologie se propage dans les foyers de chacun avec le décollage de ce que l’on appelle « l’informatique ambiante », explique Moynihan. Cela pourrait ressembler à votre réseau d’appareils intelligents utilisant vos préférences comme guide pour façonner votre environnement. Au lieu d’avoir à prérégler l’éclairage, le niveau de chaleur ou la climatisation que vous souhaitez lorsque vous franchissez la porte, les appareils peuvent décider automatiquement eux-mêmes en fonction de ce que vous voulez et du moment où vous rentrez chez vous, puis activer un réglage différent pour les autres personnes présentes. ménage.
MediaTek et la réalité augmentée
Comme ses concurrents, MediaTek a exploré les prochaines orientations de ses puces, y compris la réalité augmentée et virtuelle. Lors du sommet de l’année dernière, la société a révélé que ses puces alimentaient le PSVR2 de Sony, le casque de réalité virtuelle associé à la PS5. Lors du sommet de cette année, MediaTek avait un autre partenariat à révéler : il travaillera avec la société mère de Facebook, Meta, pour développer une puce AR/VR personnalisée.
Bien que MediaTek n’ait pas précisé quel type d’appareil utilisera sa puce, il n’est pas difficile d’imaginer qu’il pourrait s’agir soit d’un casque AR/VR comme le Meta Quest 3, soit d’un successeur des lunettes intelligentes Ray Ban Meta. Puisque tous ces appareils Meta sont alimentés par le nouveau Snapdragon de Qualcomm
En savoir plus: Le dernier chipset VR/AR de Qualcomm en dit long sur Quest 3 et au-delà
Ce qui est clair, c’est que MediaTek entre dans l’espace AR/VR différemment de la concurrence. Qualcomm a lancé son silicium plus tôt cette année sous forme de puces génériques pour les appareils de réalité mixte. Mais MediaTek a travaillé avec Sony et travaillera avec Meta sur des puces personnalisées pour répondre aux besoins individuels de chaque marque, a déclaré Moynihan, et cherchera à s’associer avec davantage de marques à l’avenir.
« Nous pouvons intégrer certaines technologies et, à l’avenir, il existe des opportunités de connectivité, qu’il s’agisse du Wi-Fi, de RedCap ou d’une autre technologie », a déclaré Moynihan.
Note de l’éditeur : CNET utilise un moteur d’intelligence artificielle pour créer certaines histoires. Pour en savoir plus, consultez cet article.
Google a peut-être lancé le Pixel 8a lors des I/O ce mois-ci, mais beaucoup attendent avec impatience les Pixel 9 et Pixel 9 Pro. Ces téléphones s’appuieront sur les smartphones basés sur l’IA de la famille Pixel 8 et feront progresser la vision de Google en matière d’IA dans un smartphone. Alors que I/O discute du logiciel à venir, les dernières fuites offrent un aperçu clair du matériel.
De nouvelles images des trois appareils, censés s’appeler Pixel 9, Pixel 9 Pro et Pixel 9 XL, proviennent de l’équipe de rosetkd. Il présente le nouveau langage de conception de l’appareil photo, des tailles similaires à celles du Pixel 9 et du Pixel 9 Pro, et le nouvel ajout à la famille dans le facteur de forme haut de gamme Pixel 9 XL.
Avec le lancement du Pixel 6, Google a adopté un nouveau langage de conception pour la famille Pixel. Il a remplacé l’îlot de caméra familier de la conception traditionnelle des smartphones par la barre de caméra, une zone surélevée s’étendant à l’arrière de l’appareil. Celui-ci offrait les mêmes avantages en termes de taille et de profondeur que l’îlot de caméras tout en conférant à la ligne de production une fonction d’identification unique.
Il est resté constant sur toute la gamme Pixel jusqu’à ce jour, mais a été modifié sur le Pixel Fold en une barre qui atteignait la majeure partie du chemin mais avec une courbe distincte. Cette courbe concerne la famille Pixel 9 ; Bienvenue dans le tout nouveau physique.
Google présenterait un troisième appareil Pixel lors du lancement de la série Pixel 9. Bien qu’il existe trois modèles dans la famille Pixel 6, 7 et 8, les Pixel 6a, 7a et 8a ont été lancés environ neuf mois après les téléphones d’origine.
D’après les spécifications et les tailles mentionnées ici, le Pixel 9 sera toujours le téléphone principal de la famille. Le téléphone haut de gamme, actuellement marqué Pro, portera désormais la marque XL. Le nouveau Pro offrira désormais les spécifications plus élevées du XL dans un format plus petit.
Le Pixel de l’année dernière a été lancé la première semaine d’octobre, peu de temps après le lancement de l’iPhone, et il n’y a aucune raison de s’attendre à une approche différente cette année.
Lisez maintenant le résumé hebdomadaire du circuit Android de Forbes pour connaître les derniers titres sur les smartphones…
Vous connaissez probablement maintenant les aperçus de l’IA de recherche Google, qui sont ces résumés organisés par l’IA qui apparaissent désormais en haut des résultats de recherche Google après que vous ayez posé une question.
Au début, vous ne verrez que la fonctionnalité AI Overviews si vous vous inscrivez Laboratoires de recherche, qui vous permet de participer aux dernières expériences d’IA de Google. Depuis le 14 mai, les résumés générés par l’IA ont été distribués à tout le monde aux États-Unis. Si vous n’avez pas encore vu la fonctionnalité AI Overviews de Google, ce n’est qu’une question de temps.
Même si vous appréciez que Google fasse le gros du travail lors de votre recherche, vous ne souhaitez peut-être pas qu’un résumé généré par l’IA soit la première chose que vous voyez lorsque vous utilisez la recherche Google. Le modèle d’IA générative Gemini de Google alimente ces résumés, mais Gemini – comme l’IA aujourd’hui – n’est pas toujours précis. Vous préférerez peut-être plutôt une page de recherche plus pratique, avec des liens sur lesquels vous pouvez cliquer, pour trouver exactement ce que vous recherchez.
Existe-t-il un moyen de désactiver la fonctionnalité AI Overviews ? La réponse est plus compliquée que vous ne le pensez. Pour en savoir plus, voici ce dont Google a parlé lors de Google I/O, y compris à quoi s’attendre dans le prochain Android 15.
Quels sont les aperçus de l’IA dans la recherche Google ?
Les aperçus IA sont des réponses générées par l’IA aux questions que vous posez dans la recherche Google. Google a dit À partir du 14 mai, les résultats d’AI Overviews apparaîtront en haut de la recherche Google, lorsque les systèmes de recherche de Google détermineront que ces types de réponses générées par l’IA peuvent rapidement fournir des informations utiles.
Par exemple, si vous tapez « quelle est la guerre la plus courte de l’histoire » dans une recherche Google, vous pourriez voir quelque chose sur la guerre anglo-Zanzibar de 1896, grâce à la fonction AI Overviews. Sous le résumé généré par l’IA, vous verrez des liens vers toutes les ressources utilisées, sur lesquels vous pouvez cliquer pour vérifier de quels sites Web les informations sont extraites.
Si vous faites défiler vers le bas, vous verrez peut-être l’extrait présenté que vous avez l’habitude de voir dans la recherche Google, ainsi que les sections Les gens demandent également, les boîtes de questions et réponses sur Quora et Reddit, les vidéos connexes et les liens vers des sites Web.
Qui a accès à l’aperçu de l’IA ?
Google a commencé à tester les aperçus de l’IA en 2023 avec un petit groupe de personnes inscrites à Search Labs, où Google teste des capacités de recherche potentielles. Durant cette dernière Google E/S Lors de la conférence de Google, l’entreprise a annoncé qu’elle déploierait les aperçus de l’IA auprès de centaines de millions d’utilisateurs aux États-Unis et qu’elle serait bientôt disponible dans davantage de pays. Google espère fournir un aperçu de l’IA à plus d’un milliard de personnes d’ici la fin de cette année.
Existe-t-il un moyen de désactiver les aperçus de l’IA de la recherche Google ?
Passons maintenant à la question importante : existe-t-il un moyen de désactiver les aperçus de l’IA dans les résultats de recherche ?
Malheureusement, vous ne pouvez pas accéder aux paramètres de Google ou Chrome et désactiver la fonctionnalité.
Pour ceux d’entre nous ici à CNET qui ont essayé cela, les aperçus de l’IA ont déjà été désactivés. Laboratoires de rechercheAu contraire, tout ce que nous pouvons faire, c’est améliorer la vue d’ensemble de l’IA pour couvrir davantage de sujets de recherche. Quand nous l’exécutons dans les laboratoires.
Sur la page des laboratoires Google a dit : « Transformation [the AI Overviews and more experiments] Le désactiver n’empêche pas AI Overviews de rechercher en dehors de Labs. »
L’activation de cette expérience peut vous permettre de poser des questions plus complexes dans les recherches Google et d’obtenir un aperçu plus complet de l’IA. Vous pouvez demander quelque chose comme « Créez un plan de repas de 5 jours comprenant des myrtilles » et vous obtiendrez une réponse de l’IA en haut de GooglesSearch. Idéal pour les gens qui aiment les myrtilles, mais mauvais pour ceux qui ne se soucient pas de l’IA.
Vous ne pouvez pas désactiver les aperçus de l’IA, mais vous pouvez le faire…
Google ne nous donne peut-être pas de moyen clair de désactiver les aperçus de l’IA dans la recherche Google, mais il existe des solutions de contournement.
La première solution, que vous utilisiez un téléphone mobile ou un ordinateur, est de procéder ainsi Utilisez l’onglet Web qui apparaît en haut des résultats de recherche Google. Si vous ne le voyez pas (il devrait être là avec les onglets Tout, Actualités et Photos), faites défiler vers la gauche ou la droite jusqu’à ce que vous le trouviez. Au départ, vous verrez toujours tout résumé de l’IA en haut, mais cela vous permet de passer rapidement à une recherche plus traditionnelle, remplie uniquement de liens.
La deuxième solution est Utiliser un navigateur Web autre que Chrome. Nous n’avons pas obtenu la vue d’ensemble de l’IA sur les requêtes dans Safari et Firefox que nous avons obtenue dans Chrome.
La troisième solution, qui ne fonctionne que sur votre ordinateur, est Utilisez ceci Masquer l’extension Google AI Overviews pour Chrome. Si vous êtes un utilisateur de Chrome et que vous ne souhaitez utiliser aucun autre navigateur, mais que vous ne souhaitez pas non plus prévisualiser l’IA, cette extension supprime tous les résumés générés par l’IA des résultats de recherche Google.
Pour en savoir plus, voici les 13 outils d’IA de Google, y compris cet intéressant outil d’IA pour Gmail.
Google travaillerait sur la mise en œuvre de plusieurs fonctionnalités de personnalisation pour la fonctionnalité d’accessibilité Live Caption sur les appareils mobiles. Des preuves de cette mise à jour ont été découvertes par le plongeur profond Assemble Debug après une recherche dans l’application Android System Intelligence. D’après la photo donnée à Corps de robotIl y aura quatre options au total. Nous ne savons pas grand-chose, mais il y a peu d’explications à trouver.
Le premier permet aux téléphones Android d’afficher des « icônes emoji » dans le texte des légendes ; Peut-être pour mieux transmettre les émotions exprimées par les sons. Les trois autres ne sont pas clairs. Le deuxième long métrage « mettra l’accent sur l’intensité émotionnelle dans… [the] Transcription » tandis que la troisième inclurait « la durée du mot [effects]et la capacité d’afficher des « signes émotionnels ».
Répartition des fonctionnalités
Comme vous pouvez le constater, le libellé est assez vague, mais il y en a suffisamment pour dresser un tableau. Il semble que Live Caption permettra de mieux reproduire les émotions dans les sons que vous transcrivez. Disons, par exemple, que vous regardez un film et que quelqu’un crie de colère. Peut-être que la fonction Live Caption pourrait afficher du texte en lettres majuscules pour indiquer des cris.
Cette fonctionnalité peut également déformer les mots d’une ligne pour indiquer quand quelqu’un est sarcastique ou essaie de souligner quelque chose. L’effet de durée de mot peut faire référence à un logiciel qui affiche les lettres saisies dans un ensemble de légendes. Peut-être que quelqu’un chante et commence à tenir une note. Le son préservé grâce à ce switch peut être affiché.
Certes, les signes émotionnels sont plus difficiles à visualiser. Android Authority signale que des balises seront affichées et insérées dans le texte. Cela signifierait que l’outil ajouterait des indicateurs clairs dans les transcriptions de ce que le sujet exprime actuellement. Les utilisateurs peuvent voir le mot « En colère » apparaître lorsqu’une personne se sent en colère à propos de quelque chose ou le mot « Triste » lorsqu’une personne pleure.
Un plus grand avantage
C’est notre meilleure hypothèse. Si ces fonctionnalités fonctionnent comme décrit, elles offriront à Live Caption encore plus d’avantages qu’elles n’en ont déjà. L’outil a été introduit en 2019 en tant qu’outil d’accessibilité pour aider les gens à profiter du contenu s’ils sont malentendants ou ne peuvent pas lire de l’audio pour quelque raison que ce soit.
Les légendes actuelles sont assez simples, mais avec la mise à jour, des émoticônes peuvent être ajoutées au widget Google pour une meilleure expérience immersive.
Recevez les offres les plus intéressantes dans votre boîte de réception ainsi que des actualités, des critiques, des opinions, des analyses et bien plus encore de la part de l’équipe TechRadar.
Android Authority affirme que les fonctionnalités ont été trouvées dans une « variante de l’application Android System Intelligence ». Nous pensons que cela signifie qu’il se trouvait dans une version spéciale de l’application destinée aux appareils propriétaires comme le Google Pixel. Les outils de personnalisation pourraient donc être exclusifs au Pixel 8 ou à un futur modèle. Il est trop tôt pour le dire pour le moment. Espérons que les Live Captions mis à niveau verront une version beaucoup plus large.