Connect with us

Tech

Dans le processus de Google pour créer les fonctionnalités d’accessibilité de Maps récemment annoncées

Published

on

Dans le processus de Google pour créer les fonctionnalités d’accessibilité de Maps récemment annoncées

Dans le but de contribuer à diffuser autant d’informations que possible sur la Journée mondiale de sensibilisation à l’accessibilité en tant que rédaction individuelle la semaine dernière, j’ai rapporté que Google avait passé une semaine entière à annoncer plusieurs mises à jour liées à l’accessibilité lors de son événement annuel connu sous le nom de Google I/. O Conférence des développeurs Parmi les éléments promus par la société basée à Mountain View figurent des améliorations du populaire Google Maps.

Selon Google, les utilisateurs pourront accéder à ce qu’il décrit comme des « instructions de marche plus détaillées » tout en naviguant vers des lieux. Grâce à Google Lens et à sa capacité de lecture d’écran, les gens pourront entendre les noms et les catégories de lieux autour d’eux (Google a utilisé les distributeurs automatiques et les restaurants comme exemples) et voir à quelle distance ils se trouvent pour y arriver. De plus, Google a inclus la prise en charge des instructions vocales détaillées qui, selon lui, «[provide] Les invites vocales vous permettent de savoir lorsque vous vous dirigez dans la bonne direction, lorsque vous traversez une intersection très fréquentée ou lorsque vous êtes redirigé si vous avez pris le mauvais chemin. Ailleurs sur Maps, Google a déclaré que l’application propose des informations d’accessibilité pour « plus de 50 millions de lieux », grâce en grande partie aux données collectées auprès des propriétaires d’entreprises et des utilisateurs de cartes. Les détails sont indiqués par une icône ♿ et mettent en évidence des zones telles que le parking, les sièges et les salles de bains. Il existe également des filtres pour vous aider à rechercher des endroits accessibles en fauteuil roulant. Enfin, pour les malentendants, Google Maps est désormais pris en charge Oracast; En supposant que les dirigeants de la communauté et les propriétaires d’entreprise aient marqué leur(s) liste(s), Maps affichera les lieux compatibles Auracast. Si cette case est cochée, Google note que des lieux tels que des gymnases, des lieux de culte et des théâtres peuvent « diffuser un son amélioré ou assisté aux visiteurs utilisant des aides auditives, des écouteurs et des écouteurs compatibles Auracast ».

Dans le but d’approfondir les améliorations apportées par Google à Maps, j’ai contacté plus tôt cette semaine Sasha Blair Goldenson, responsable des fonctionnalités d’accessibilité et d’inclusion des personnes handicapées chez Google pour Maps, et elle m’a expliqué dans une courte interview par courrier électronique les fonctionnalités d’accessibilité. mentionné ci-dessus. « Inspirez-vous » des joies et des défis de la vie quotidienne des personnes handicapées. Ces expériences vécues proviennent de nombreuses personnes, notamment des employés de Google et d’autres personnes vivant dans ou à proximité de la communauté des personnes handicapées, a-t-il déclaré.

Selon Goldenson, ces commentaires collectifs de la communauté n’ont qu’un seul objectif : rendre Google Maps « aussi utile aux personnes handicapées que n’importe qui d’autre » afin que les personnes handicapées puissent « explorer, naviguer, profiter et contribuer aux communautés ». où nous vivons et voyageons.

« Des fonctionnalités telles que Lens in Maps et le guidage vocal étape par étape fournissent aux utilisateurs aveugles et malvoyants des informations que les personnes voyantes peuvent tenir pour acquises. [such as] « La distance jusqu’au prochain virage ou les mots sur le panneau », a déclaré Goldenson à propos de la priorité à l’accessibilité. « Rendre ces fonctionnalités disponibles dans le monde entier, dans toutes les langues prises en charge, est essentiel car les personnes handicapées vivent partout et nous allons partout. »

Goldensohn a ajouté qu’il est important de se rappeler que les fonctionnalités d’accessibilité, proposées par Google ou d’autres sociétés, sont extrêmement utiles dans certaines situations. Autrement dit, une personne peut subir une blessure et ainsi devenir temporairement invalide. Il a cité un exemple pour savoir si un restaurant, par exemple, doté de marches ou accessible aux utilisateurs de fauteuils roulants, pourrait être utile aux parents poussant des poussettes et/ou aux voyageurs avec des sacs à roulettes. De même, afficher des itinéraires détaillés à pied aide les gens dans les moments où il n’est pas judicieux de regarder le téléphone. Goldenson a déclaré qu’il était difficile de regarder son téléphone lorsque ses mains étaient pleines de courses.

Goldenson a réitéré l’idée selon laquelle les fonctionnalités d’accessibilité de Google, dans Maps et ailleurs, ont été développées et largement influencées par les Googleurs – le terme familier désignant les travailleurs de Google – handicapés. Il s’agit d’un contexte important, a-t-il déclaré, car la société s’efforce « de s’assurer que nous développons des fonctionnalités utiles à cette communauté ». Goldenson a souligné comment la nouvelle fonctionnalité d’informations sur l’accessibilité de Maps a été créée de cette manière, affirmant que les guides locaux dans les communautés ont contribué « plus que [a] 1 milliard de mises à jour d’applications d’accessibilité mondiales depuis 2017.

READ  Microsoft a mis de côté Game Pass Streaming Box car il était trop cher
Continue Reading
Click to comment

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tech

Apple annonce son premier modèle de génération de code AI, Swift Assist

Published

on

Apple annonce son premier modèle de génération de code AI, Swift Assist

décrit comme Un outil compagnon pour toutes les tâches de programmation, Swift Assist Il vise à aider les développeurs à transformer leurs idées en code et à se concentrer sur des problèmes de niveau supérieur. Propulsé par un modèle qui s’exécute dans le cloud Apple, Swift Assist est intégré à Xcode et est capable de générer du code à partir d’une invite exprimée en langage humain.

Avec Swift Assist, des tâches telles que l’exploration de nouveaux frameworks et l’essai de nouvelles idées ne sont qu’à une seule demande. Swift Assist utilise un modèle puissant qui s’exécute dans le cloud.

Par exemple, vous pouvez demander à Swift Assist de convertir une fonction à utiliser async/awaitAjout d’une carte de la position actuelle de l’utilisateur, amélioration de l’accessibilité de l’affichage, etc.

Apple affirme que l’un des avantages de fonctionner dans le cloud est que Swift Assist sera toujours à jour sur les derniers kits de développement logiciel (SDK) et les fonctionnalités du langage Swift. En revanche, l’entreprise garantit que le code utilisateur ne sera utilisé que pour traiter les commandes et ne sera pas stocké sur le serveur d’Apple, ni utilisé pour entraîner ses modèles.

S’exprimant à la WWDC 2024, directeur principal de Xcode et Swift Playground Ken Orr a montré comment utiliser Swift Assist pour aider à créer une application Pour l’indexation Mac classique à partir d’un projet Xcode vierge.

La première invite d’Orr était de « créer une liste de Mac classiques par nom et description », à laquelle Swift Assist a répondu en créant ClassicMac struct Pour représenter les modèles Mac et afficher SwiftUI avec un ensemble pré-rempli de Mac et List afficher. Puis il a demandé à Swift Assist « d’ajouter des photos à côté de chaque Mac », le faisant ainsi exister. struct Pour être modifiés pour inclure le nom de l’image, les exemples d’images Mac ont été extraits du catalogue d’actifs du projet. En conséquence, la vue SwiftUI a été modifiée pour inclure l’image dans la liste. Comme autre exemple de la flexibilité de Swift Assist, Orr a demandé « d’afficher les Mac sur une grille au lieu d’une liste », ce qui a entraîné la modification immédiate du code pour utiliser LazyVGrid.

READ  Hunt met à jour sa paire de roues de route en carbone avec de nouveaux profils de jante et une roue libre

Orr a expliqué que Swift Assist peut aider les développeurs à effectuer de nombreuses tâches différentes, notamment la localisation de la vue, l’ajout de la prise en charge de la connexion, l’ajout d’exemples supplémentaires à la liste et la conversion entre différents types de pile.

Selon Orr, Swift Assist, ainsi que la complétion prédictive du code de Xcode, ne sont que la première étape pour intégrer plus « d’intelligence » dans les outils d’Apple, mais il n’a fourni aucune information supplémentaire concernant la feuille de route d’Apple.

Apple n’a pas publié beaucoup de détails sur le modèle alimenté par Swift Assist, mais selon… Morceaux de sentier Artem Dinaburg,Doit être un modèle de paramètres 70B+ spécifiquement formé sur Swift Code, les SDK et la documentation.

Swift Assist sera généralement disponible plus tard cette année Sauf pour les pays de l’Union européenne, dit Appleen raison des incertitudes réglementaires liées à la loi sur le marché numérique.

Continue Reading

Tech

Cette fonctionnalité iPhone amusante transforme votre animal de compagnie en une jolie affiche vivante

Published

on

alors que iOS 18 Il devrait apporter de nombreuses nouvelles fonctionnalités à Messages sur votre iPhone, telles que plus Tapbacks Et Prise en charge du RCSLe géant de la technologie a facilité la transformation de vos photos en autocollants iOS 17. La fonctionnalité s’appelle Autocollants en direct Il vous permet de transformer les photos de vos animaux de compagnie, de votre famille et de vos amis en autocollants à envoyer aux autres dans des messages.

CNET_Conseils techniques CNET_Conseils techniques

En savoir plus: Tout ce qu’Apple a annoncé à la WWDC 2024

Les autocollants dynamiques sont une évolution de la fonctionnalité Tap and Raise introduite dans iOS 16, qui vous permet de recadrer les arrière-plans des photos et des photos en direct. Cette fonctionnalité iOS 17 vous permet d’ajouter des effets pour couper des photos et stocker des autocollants dans le nouveau tiroir d’applications de Messages.

Voici comment prendre vos photos et les transformer en autocollants à envoyer dans Messages et d’autres applications.

Comment créer des autocollants dynamiques dans iOS 17

1. Ouvrir les images programme.
2. Cliquez sur l’image que vous souhaitez transformer en autocollant dynamique.
3. Appuyez à nouveau sur l’image pour passer en mode plein écran.
4. Appuyez et maintenez l’élément de la photo que vous souhaitez transformer en autocollant.
5. poignée Ajouter un autocollant.

Cinq photos d'un chien marron et blanc Cinq photos d'un chien marron et blanc

Assurez-vous de sélectionner le cercle plié (sélectionné ci-dessus) pour créer vos étiquettes.

Capture d’écran de Zach McAuliffe/CNET

Votre autocollant en direct sera automatiquement ajouté à votre tiroir d’autocollants et vous aurez des options pour celui-ci. Réarrangement, Ajouter un effet ou éponger Votre étiquette directe dans le bac à étiquettes. Écoute clandestine Ajouter un effet Il vous permettra de mettre un effet sur votre affiche, comme par exemple un contour blanc pour la faire ressembler davantage à une affiche.

Selon Apple, vous pouvez utiliser votre nouvel autocollant Live partout où vous pouvez accéder aux emoji, y compris d’autres applications et parmi d’autres appareils Apple qui n’exécutent pas iOS 17. J’ai essayé d’utiliser l’autocollant Live sur l’application de messagerie Slack et l’autocollant était… . Le mien a un fond blanc. Je n’ai pas non plus pu accéder à mes Live Stickers dans certaines applications tierces, comme TikTok, vous pouvez donc rencontrer des problèmes lorsque vous utilisez vos Live Stickers en dehors des applications et des appareils Apple.

Pour en savoir plus sur iOS 17, voici notre aide-mémoire iOS 17. Vous pouvez également consulter tout ce que la société a annoncé lors de la WWDC 2024 et toutes les fonctionnalités à venir dans iOS 18.

regarde ça: La grande division Apple AI arrive

READ  Retornz ToneZ v2, un plugin de synthétiseur gratuit pour macOS, Linux et Windows
Continue Reading

Tech

Fuites de conception de l’iPhone 16, du nouveau MacBook Pro M4 et de l’IA open source d’Apple

Published

on

Fuites de conception de l’iPhone 16, du nouveau MacBook Pro M4 et de l’IA open source d’Apple

Nous jetons un coup d’œil à l’actualité de cette semaine et aux principaux titres d’Apple, notamment les dernières fuites de l’iPhone 16, les limites de l’iPhone AI, un nouveau MacBook Pro pour Noël et l’IA open source d’Apple, lorsque Siri obtiendra Apple Intelligence, un supercycle d’IA pour iPhone. Qu’est-il arrivé à Apple ?

Apple Loop est là pour vous rappeler certaines des nombreuses discussions qui ont eu lieu autour d’Apple au cours des sept derniers jours. Vous pouvez également lire mon récapitulatif hebdomadaire des actualités Android ici sur Forbes.

Guides des coques iPhone 16

Une large gamme de coques pour iPhone 16 a été repérée cette semaine. Les composants internes des iPhones de nouvelle génération ne sont peut-être pas présentés, mais ils nous donnent plus d’informations potentielles sur l’appareil photo et son utilisation, parallèlement aux plans d’informatique spatiale d’Apple :

« Les images indiquent une fois de plus un design subtilement remanié pour l’iPhone 16, avec deux objectifs de caméra alignés verticalement. Une théorie suggère que cet agencement est destiné à s’adapter aux capacités d’enregistrement vidéo spatial du casque de réalité mixte Vision Pro d’Apple, même sur la base. Modèles. Capture spatiale optimisée, les lentilles doivent être alignées horizontalement, simulant la position de l’œil humain.

(livres techniques).

Les limites de l’intelligence artificielle dans l’iPhone

Apple a confirmé que parmi les iPhones actuels, seuls les iPhone 15 Pro et 15 Pro Max prendront en charge Apple Intelligence AI. Cela est dû à une combinaison de mémoire, de processeur et de bande passante intégrée, comme l’a expliqué John Giannandrea d’Apple lors d’un récent « Talk Show » :

« Ainsi, ces modèles, lorsque vous les exécutez dans les environnements d’exécution, sont appelés inférences, et l’inférence pour les grands modèles de langage est incroyablement coûteuse en termes de calcul. Et c’est donc une combinaison de la bande passante de l’appareil, c’est la taille du moteur neuronal d’Apple, c’est la gravité. dans l’appareil à exécuter. Ces modèles sont suffisamment rapides pour être utiles. Vous pourriez, en théorie, exécuter ces modèles sur une très vieille machine, mais ce serait trop lent pour être utile.

(Forbes).

MacBook Pro M4 avant Noël

Apple a pris une décision surprise en lançant sa dernière puce M4 sur l’iPad Pro, plutôt que sur n’importe quel Mac. À un moment donné, la famille macOS verra l’arrivée du M4, et le MacBook Pro sera probablement en première ligne :

« Le MacBook Pro 14 pouces d’entrée de gamme devrait recevoir la puce M4, tandis que les modèles MacBook Pro 14 pouces et 16 pouces seront mis à jour avec les puces M4 Pro et M4 Max. Le Mac mini recevra le M4 et Les puces M4 Pro. Les puces MacBook Air, Mac Studio et Mac ne seront pas mises à jour Pro avec des puces M4 avant 2025, et on ne sait pas encore quand l’iMac pourrait bénéficier d’une actualisation avec la technologie de puce mise à jour.

(MacRumeurs).

Les efforts d’Apple en matière d’IA open source

Bien qu’Apple n’ait encore commercialisé aucun de ses logiciels Apple Intelligence AI au public, une partie de ses efforts en matière d’IA sont disponibles. Hugging Face est un service en ligne open source qui partage des modèles et des ensembles de données d’apprentissage automatique. Apple a téléchargé 20 modèles supplémentaires sur le service, en plus de ceux téléchargés plus tôt cette année :

« Apple a fait un grand pas en avant dans ses efforts pour doter les développeurs de capacités d’IA de pointe sur les appareils. Le géant de la technologie a récemment publié 20 nouveaux modèles d’apprentissage automatique et 4 ensembles de données sur Hugging Face, une plateforme communautaire leader pour le partage de modèles et de codes d’IA.

(Victoire de l’aventure).

L’IA sera en retard à la fête de l’iPhone

Quant à l’accès public à Apple Intelligence ? Cela prendra plus de temps que prévu. Alors qu’iOS 18 sera livré avec les iPhone 16 et 16 Pro en septembre, avec une version ultérieure pour les iPhones plus anciens, Apple Intelligence pourrait n’arriver que début 2025 :

Siri dans iOS 18 sera toujours livré avec quelques « nouvelles cloches et sifflets » en septembre, y compris une nouvelle interface qui éclaire le bord de l’écran…[but] Il faudra attendre l’année prochaine pour voir les améliorations les plus significatives qu’Apple a apportées à Siri. La mise à jour iOS 18 en 2025 devrait apporter les améliorations suivantes à l’assistant virtuel d’Apple :

(MacRumeurs).

L’intelligence artificielle rêve d’un cycle de super-héros

Avec le lancement de l’iPhone AI (quel que soit le moment où il arrivera), on s’attend à ce qu’Apple vende de nombreux iPhones compatibles AI. Avec si peu de rétrocompatibilité, cela conduira-t-il à un « super cycle » pour les ventes d’iPhone ? Les analystes de Wedbush pensent que cela va :

« …Avec le lancement de la stratégie d’IA d’Apple, cela catalysera un supercycle tant attendu à Cupertino avec 270 millions d’iPhones sur 1,5 milliard d’appareils dans le monde qui ne respectent pas la règle d’or éprouvée de ne pas mettre à niveau leurs smartphones dans plus de 4 ans. Selon nos estimations, :

(9à5Mac).

Et enfin…

Il était une fois tout commençait par la lettre « i ». Désormais, tous les noms de produits commencent par « Apple ». Que se passe-t-il avec ça ? Naturellement, il y a cette semaine une nouvelle discussion sur Reddit à propos de la marque Apple, qui contient de nombreuses théories expliquant pourquoi, dont celle-ci :

« Utiliser Apple dans le nom est un stratagème marketing pour assurer la reconnaissance de la marque. J’ai découvert Acura à mes dépens dans les années 1990, quand ils ont commencé à nommer leurs voitures comme Legend et Integra et personne ne savait qui les fabriquait. Ils ont renommé leurs voitures RDX, MDX, etc. Les gens ont été obligés de réinsérer le mot « Acura » dans la conversation, je pense.

(La médiation via Reddit).

Apple Loop vous propose des moments forts pendant sept jours chaque week-end ici sur Forbes. N’oubliez pas de me suivre pour ne manquer aucune future couverture. L’Apple Loop de la semaine dernière peut être lu ici, ou l’édition de cette semaine de la chronique sœur de Loop, Android Circuit, est également disponible sur Forbes.

READ  Rock 'n' roll toute la nuit avec le rabat Stratocaster de la Lexus LC 500
Continue Reading

Trending

Copyright © 2023