Connect with us

Tech

L’ordinateur dit non : The Stage peut-il battre l’IA dans une course contre la montre sur le circuit de Yas Marina ?

Published

on

L’ordinateur dit non : The Stage peut-il battre l’IA dans une course contre la montre sur le circuit de Yas Marina ?

Qu’ont en commun ces choses : la nouvelle tournée Take That, le séchage de la peinture et les courses autonomes ? ça c’est vrai! Ce sont les trois choses que j’ai le moins hâte de voir dans l’univers connu, et pourtant, je suis assis sur la ligne de départ/arrivée à Yas Marina, à Abu Dhabi, avec 10 000 autres spectateurs légèrement perplexes, encourageant un un tas de voitures de course équipées de capteurs et d’ordinateurs. C’est là que sont habituellement assis les humains dotés de compétences de conduite surnaturelles et d’une mentalité de lutte. La voiture de tête venait de virer dans la inoffensive voie de gauche, et les trois autres concurrents, alignés à l’arrière de la voiture, s’arrêtaient derrière elle, incapables d’imaginer croiser quoi que ce soit en forme de voiture sous un drapeau jaune. J’ai vu notre avenir indépendant et cela comprenait de très longues files d’attente sur l’autoroute.

En tant que spectacle de courses, c’est un désastre pur. Plus tard, lorsqu’une équipe de l’Université technique de Munich a remporté le drapeau à damier et s’est taillé la part du lion des 2,25 millions de dollars (et que la plupart des spectateurs ont été perdus), le spectacle de drones 3D et le feu d’artifice militaire ont fermé les yeux… tout en rappelant à tous les centaines de millions que le gouvernement d’Abu Dhabi a dépensés pour cette expérience scientifique très publique. Cela s’appelle l’A2RL, la Abu Dhabi Autonomous Racing League. Et non, nous ne savons pas non plus d’où vient le nom 2.

Publicité – La page continue ci-dessous

Cependant, la joie de la soirée de course est bien plus que la cerise sur le gâteau. L’effort humain qui nous a conduit à ce point et la grande idée avec laquelle nous poursuivons cette course sont encore plus convaincants. Nous en parlerons, mais remontons d’abord le temps de trois jours : le Stig a miraculeusement passé la douane et a été libéré de sa valise rigide, et nous avons le circuit de F1 de Yas Marina pour nous seuls… et la chance de mener notre propre petite expérience scientifique.

Photographie : Rowan Horncastle

Nous sommes aussi terrifiés que vous par l’idée que l’IA remplace nos pilotes de course bien-aimés, convaincus que le feu de la compétition ne peut pas être reproduit dans des lignes de code, nous avons donc conçu un plan pour mettre des ordinateurs à leur place. Face-à-face contre AI – Stig contre AI – Celui qui parvient à réaliser le meilleur temps au tour depuis un départ arrêté remporte le butin. Tous deux conduiront des voitures identiques – des pilotes japonais de Super Formula selon les spécifications fournies à chacune des huit équipes inaugurales de l’A2RL (la rumeur dit que cela aurait coûté aux organisateurs 1 million de dollars par châssis, moins le moteur, pouah) – avec une différence cruciale. L’un est exploité par Stage et l’autre est équipé de tous les capteurs, radars, caméras et puissance de calcul dont il a besoin pour se conduire tout seul et apprendre à conduire plus vite en le faisant.

READ  Le capteur ECG de l'Apple Watch peut prédire avec précision le niveau de stress : étude : The Tribune India

A2RL est un concours de programmation, une idée originale d’Aspire, « la branche de développement commercial et de gestion de programmes du Conseil des technologies avancées et de la recherche d’Abu Dhabi ». Il s’agit essentiellement d’une branche du gouvernement chargée de diversifier l’économie en l’éloignant des matières premières. « Nous identifions les grands défis technologiques mondiaux, des choses qui pourraient prendre 10 à 15 ans à réaliser, et nous nous concentrons sur ceux-ci et essayons de réaliser des progrès de développement à court terme », a déclaré le PDG Tom McCarthy. D’autres projets sont en cours, notamment un concours de poulets d’élevage en laboratoire et une course de drones autonomes… nous nous en tiendrons aux voitures.

Publicité – La page continue ci-dessous

Après seulement quelques mois de simulation et quatre semaines de tests à Yas Marina, les équipes doivent « apprendre » à leurs voitures comment traiter les entrées des capteurs et produire des sorties vers les moteurs, non seulement pour naviguer rapidement sur la piste, mais aussi pour réagissez et dépassez les voitures autour d’eux (avec un peu de chance). C’est des trucs époustouflants. De toute évidence, une partie de l’attrait est de savoir quelle voiture de course IA sera impliquée dans l’accident le plus étrange ou le plus grave, sachant qu’aucun humain ne sera blessé… même si les factures de réparation, actuellement payées par les organisateurs, devront être intelligentes. Le directeur technique, Giovanni Pau, explique que l’écart entre les huit équipes est énorme – dont quatre ont de l’expérience dans les courses et le « vol » avec l’IA et les autres dont les nouveaux ailerons avant coûtent plus cher que la facture d’Hemingway.

15 minutes et 11 secondes

Le principal problème ici n’est pas l’abandon des voitures électriques, comme beaucoup le supposent, mais l’utilisation de voitures monoplaces propulsées par un moteur à combustion interne complet, qui sont des voitures légèrement inférieures aux voitures de Formule 1 en termes de vitesse, et avoir un son et un son purs et profonds… Magnifique de près. Voir des voitures de course autonomes peut être un spectacle difficile… mais l’explosion de l’essence aide certainement.

Nous attendons que le soleil se couche et que la température passe de la fonte des pneus à la transpiration, puis la scène monte en premier pour établir la norme. Nous le trouvons en bas en train d’essayer de communiquer avec les serveurs, peut-être des propos trash d’avant-match… c’est difficile à dire. Ce que nous savons, c’est que celui qui a programmé la scène a dû charger Yas Marina, car elle effectue quelques tours de chauffe avant de se reposer sur la ligne de départ, en attendant que les feux s’éteignent et qu’elle s’envole à grande vitesse. Ignorant complètement l’équipement de chronométrage standard de Formule 1 sur la piste, j’ai sorti le chronomètre sur mon téléphone alors que la scène parcourait 5,28 kilomètres et 16 virages en 1 minute 52,52 secondes. Il est content, cela se voit à la façon dont il refuse de sortir.

READ  Apple envoie des autocollants pour iPhone jailbreakés aux chercheurs en sécurité : image

La voiture suivante est l’ennemi IA de Stig. Cette voiture appartient aux organisateurs, c’est la voiture d’essai et c’est la plus rapide. Honnêtement, je ne sais pas s’il était sur le point de ramper à 30 mph avant de virer directement dans la barrière (oui, c’est arrivé, et oui, la vidéo est là), mais il va à une vitesse décente et ma parole est que c’est bizarre de voir une voiture bouger, accélérer, elle freine et prend des virages pour des courses… mais sans pilote. Bien sûr, il peut simplement suivre une trace GPS lorsqu’il est seul sur la piste, mais pour une voiture, savoir quand pousser, quand les pneus et les freins sont à température, ont de l’adhérence et peuvent accélérer, est beaucoup plus complexe. Il met également en œuvre la stratégie globale du programmeur – sur une échelle allant de prudent à très agressif.

« L’âme de la voiture est l’âme du programmeur », explique poétiquement Bao. Il faut deux fois plus de tours de chauffe que la Stage, mais une fois que la voiture est chaude, elle monte très vite dans les tours.

Un homme sprinte vers le mur des stands, un téléphone à la main et un gros bouton pause sur l’écran. Je suis assis dans la boîte et je la regarde d’en haut. Il tape sur quelque chose pour ralentir la voiture alors qu’elle prend le dernier virage dans la ligne droite, puis appuie sur le bouton pause pour l’arrêter le plus près possible de la ligne de départ. Il dépasse la voiture de 15 mètres, mais après s’être installé cinq secondes sous le portail, de la fumée sort de l’arrière de la voiture, s’allume, puis prend feu. Les mécaniciens prennent les extincteurs, se précipitent vers eux et les recouvrent de mousse. L’un d’eux enlève sa chemise, assez courageusement, et essuie frénétiquement les panneaux et l’électronique, conscient de l’ampleur de la corrosion que cette saleté peut provoquer.

Recevez toutes les dernières nouvelles, critiques et exclusivités, directement dans votre boîte de réception.

Nos caméras tournaient tout le temps, et une fois le feu éteint, nous nous attendions à être emmenés dans une cellule sombre, ligotés et bâillonnés jusqu’à ce que nous remettions les images, mais tout le monde est plutôt pratique. C’est la course, là où les choses tournent mal, on apprend et on avance, tout cela fait partie du voyage. J’ai même été invité à revivre l’incendie en direct sur le casque Meta Quest VR, qui reçoit son flux d’une caméra 8K intégrée, permettant aux fans équipés de casques compatibles de littéralement suivre pendant la course. Au cours des 45 minutes suivantes, les mécaniciens gagnent de l’argent : la piste est nettoyée et séchée, la voiture est démontée, essuyée, lavée et aspergée de WD40 jusqu’à ce qu’elle soit comme neuve. La conduite de carburant usée est à blâmer – un tube métallique rigide, qui devrait être un tuyau en caoutchouc, fissuré en raison de vibrations intenses.

READ  Google déploie les widgets d'écran de verrouillage iOS 16 sur les iPhones

Pendant ce temps, une voiture de course autonome supplémentaire d’un million de livres sterling est en cours d’inspection, de mise sous tension et de départ pour ses tours d’échauffement. On nous dit que l’arrêter sur la ligne d’arrivée a peut-être contribué à l’enfer, alors nous changeons la donne : le temps au tour rapide de l’IA peut-il battre The Stage depuis un départ arrêté ? Nous attendons et attendons, tandis que le rythme reprend. On nous demande d’arrêter le chronomètre jusqu’à ce que la conversation soit complète… puis de faire silence. La voiture a évité les barrières mais a fait un écart sur le côté arrière de la piste, près du célèbre hôtel W qui s’étend sur toute la longueur de la piste. À 23h30, nous n’avions de la place que jusqu’à minuit et, à l’approche de l’événement de course de cette semaine, l’équipe A2RL hésite à l’envoyer sans connaître la raison du tête-à-queue. Je lève la tête avec déception… mais j’ai une idée. Nous trouvons le temps le plus rapide à partir des images embarquées et faisons notre comparaison. Le meilleur temps réalisé par l’IA est de 1 minute 57 secondes – donc même avec un départ arrêté, la scène est 4,5 secondes plus rapide. Bien sûr, nous avons également mesuré le temps de Stig dans un avion, pour des raisons scientifiques, et il a fixé avec désinvolture 1 minute 47,8 secondes.

Bien qu’elle soit engagée à diriger la série pendant au moins quatre ans, l’objectif ultime de l’A2RL n’est pas de remplir les tribunes de fans enthousiastes – ce qui est une bonne chose – mais d’accélérer la technologie autonome pour améliorer la sécurité des voitures de route. De même, le défi des poulets élevés en laboratoire est de s’éloigner de l’élevage à forte intensité de CO2, et l’apprentissage d’une série de drones autonomes pourrait être utilisé pour accélérer la livraison d’organes aux donneurs. Ce sont des choses nobles et qui méritent d’être rappelées lorsque l’on se sent exaspéré par le début chaotique de la série de courses.

Mais bon, les faits sont les faits, et les pilotes de race humaine peuvent conduire une voiture de Super Formule plus rapidement sur un circuit de Formule 1 qu’une IA… surtout lorsque l’IA s’enflamme. La question est de savoir combien de temps les ordinateurs régneront-ils sur les circuits ? Je vais donner le dernier mot à Bao. « Le développement de notre technologie logicielle aujourd’hui n’est donc pas à la hauteur de la vitesse humaine. Le temps au tour du Stig n’a pas encore été compromis, mais dans un an… j’aurai très peur. »

Continue Reading
Click to comment

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tech

Le code dans les données de pré-formation améliore les performances LLM sur les tâches sans codage

Published

on

Le code dans les données de pré-formation améliore les performances LLM sur les tâches sans codage

Rejoignez nos newsletters quotidiennes et hebdomadaires pour les dernières mises à jour et du contenu exclusif sur notre couverture de pointe sur l’IA. Apprendre encore plus


Les grands modèles de langage sont souvent pré-entraînés sur d’énormes ensembles de données contenant un mélange de texte et de code. Bien que le code soit essentiel dans les modèles de formation conçus pour les tâches de programmation, il est de plus en plus courant de l’inclure dans les données de pré-formation pour les modèles non explicitement destinés à la génération de code.

dans Nouveau papierchercheurs en adhérer Ils ont systématiquement étudié l’effet des données de code dans la pré-formation LLM sur les performances globales au-delà des tâches de codage.

« Bien qu’il y ait eu un consensus parmi les praticiens sur le fait que les données de code jouent un rôle essentiel dans la performance LLM, il n’y a eu que peu de travaux analysant l’impact précis du code sur les tâches non codées », ont écrit les chercheurs.

Leurs résultats montrent que le code joue un rôle crucial dans l’amélioration des performances des étudiants en LLM sur un large éventail de tâches. La manière dont ils sont parvenus à ces résultats est également importante et pourrait avoir des implications pour la formation des étudiants en LLM à des applications concrètes.

Étudier l’impact du code

Pour comprendre l’impact du code sur les performances globales de LLM, les chercheurs ont mené une série d’expériences. Ils ont pris en compte divers facteurs, notamment la quantité de code dans les données de formation, l’endroit où le code est ajouté pendant le processus de formation, la qualité du code et la taille des modèles.

Les chercheurs ont utilisé un processus de formation en deux étapes. Premièrement, ils ont effectué un « pré-entraînement continu » en prenant des modèles précédemment formés et en continuant à les former sur de nouveaux ensembles de données avec différentes proportions de texte et de symboles pour un nombre fixe de symboles. Ils ont ensuite utilisé une phase de « refroidissement », en attribuant des pondérations plus élevées aux ensembles de données de meilleure qualité au cours des dernières étapes de la formation.

READ  Apple commence à tester les iPhones avec USB-C

Le modèle de base a été formé uniquement sur du texte. Ils ont également testé des modèles qui ont d’abord été pré-entraînés sur un ensemble de données équilibré de code et de texte, puis formés davantage sur des données textuelles au cours d’une phase de pré-formation en cours. Ils disposaient également d’un ensemble de modèles pré-entraînés uniquement sur les données de code et davantage formés sur le texte.

Les chercheurs ont évalué les performances des modèles à différentes échelles, de 470 millions à 2,8 milliards de paramètres. Ils ont utilisé une variété de critères qui mesurent les capacités des modèles à connaître le monde, à raisonner en langage naturel et à exécuter du code.

Avantages de l’utilisation du code pour des tâches non liées à la programmation

Les expériences ont révélé que le code améliore systématiquement les performances des étudiants en LLM sur les tâches non liées au code.

Dans les tâches de raisonnement en langage naturel, les modèles formés au code ont systématiquement surpassé les modèles textuels. Il est intéressant de noter que les chercheurs ont découvert que le pré-entraînement du modèle avec 100 % de données de code entraînait les meilleures performances sur ces tests.

« Cela montre que l’initialisation à partir d’un modèle pré-entraîné avec une combinaison de code a un effet positif important sur les tâches d’inférence du langage de programmation », ont écrit les chercheurs.

Pour les tâches de connaissances globales, un mélange équilibré de code et de texte dans les données de pré-formation a donné les meilleures performances. « La performance sur les tâches de connaissances globales semble dépendre d’un mélange de données plus équilibré entre l’amorçage et une plus grande proportion de texte dans la phase de pré-formation en cours », suggèrent les chercheurs.

Sur les tâches génératives, les modèles de code uniquement et équilibrés ont surpassé le modèle de texte uniquement, ce qui confirme que les données de code dans le mélange de pré-entraînement « améliorent non seulement le raisonnement, mais aident également le modèle à produire des générations de meilleure qualité ».

READ  Le capteur ECG de l'Apple Watch peut prédire avec précision le niveau de stress : étude : The Tribune India

Les chercheurs ont également noté que les gains de performances résultant de l’ajout de code aux données de pré-entraînement augmentaient à mesure que la taille du modèle augmentait. Les améliorations ont été particulièrement notables dans les connaissances globales et les performances du code, suivies par des gains modestes dans le raisonnement en langage naturel.

« Ces résultats montrent que l’équilibre entre les tâches en langage naturel et la génération de code augmente avec la taille du modèle », écrivent les chercheurs.

Il convient de noter que les modèles LLM montrent souvent un comportement émergent à très grande échelle et que les tendances observées dans l’étude peuvent changer sur des dizaines ou des centaines de milliards de paramètres. En raison de contraintes financières, les chercheurs n’ont pas pu tester les effets de leurs expériences à très grande échelle. Cependant, ils sont optimistes quant à la validité de leurs résultats pour des modèles plus grands.

« Étant donné que nos résultats se situent entre 470 millions et 2,8 milliards, nous pensons qu’ils devraient être valables pour des modèles de plus grande taille et des budgets de code plus importants », ont-ils écrit.

Les chercheurs ont également constaté que l’ajout d’un code synthétique de haute qualité aux données de pré-entraînement améliorait considérablement les performances. Ceci est particulièrement utile car il ne repose pas sur du code généré par l’homme, dont la quantité est limitée.

« Nos instructions de code synthétique ont été générées à l’aide d’énoncés de problèmes qui ont été utilisés pour créer des solutions Python et ont été formellement vérifiés », a déclaré Virat Ariyabhumi, chercheur chez Cohere For AI et auteur principal de l’article, à VentureBeat. « Il s’agit d’une énorme tendance au potentiel futur – et le critère clé que les praticiens doivent garder à l’esprit s’ils souhaitent exploiter des données de code synthétiques est d’utiliser un modèle de tuteur hautes performances pour générer les données de code. »

Ils ont également constaté que l’ajout de données adjacentes au code, telles que les demandes d’extraction et les validations GitHub, peut améliorer les capacités des modèles sur les tâches d’inférence.

READ  Prix, fonctionnalités et plus – India TV

L’intégration du code dans la phase de récupération de la formation a entraîné de nouvelles améliorations des performances LLM sur plusieurs tâches non liées au code. Cette découverte pourrait être pertinente pour les organisations, qui sont plus susceptibles d’affiner leurs modèles en utilisant leurs données plutôt que de former leurs propres modèles à partir de zéro.

« La phase de récupération est probablement la plus proche d’un réglage fin en termes de coût, de qualité des données et de ressources nécessaires », a déclaré Ariyabumi. « Elle apporte des gains significatifs, donc quelle que soit la phase de formation, nous recommandons d’inclure du code dans le mix de formation. .» « Nous espérons que l’inclusion d’un code de haute qualité (comme celui dans les bases de code internes et les données adjacentes au code) apportera une amélioration pendant la période de refroidissement. »

Alors que Cohere se concentre sur la fourniture de programmes LLM pour les applications d’entreprise, il sera intéressant de voir comment ces résultats impacteront le déploiement de ses modèles et produits à l’avenir. Par exemple, une entreprise peut proposer un ensemble plus large de modèles pré-entraînés sur différentes combinaisons de code et de script, chacun étant adapté à différents types de tâches. Les entreprises peuvent ensuite adapter ces modèles à leurs propres données afin d’obtenir les meilleures performances pour un type d’application spécifique.

« Nous espérons que les résultats de nos recherches seront d’une réelle pertinence pour les développeurs et conduiront à des modèles plus performants », a déclaré Ariyabumi. « Ce qui est étonnant dans ce que nous avons découvert, c’est que le code améliore les performances en dehors des tâches de code et qu’il informe réellement sur la façon dont nous le faisons. pensez à former des modèles modernes que nous servons.

Continue Reading

Tech

Fujifilm annonce la disponibilité de l’objectif portable grand angle à monture PL FUJINON DUVO™ HZK14-100mmT2.9-3.9

Published

on

Fujifilm annonce la disponibilité de l’objectif portable grand angle à monture PL FUJINON DUVO™ HZK14-100mmT2.9-3.9

Aperçu des fonctionnalités :

Compact et léger tout en couvrant une large gamme de focales

  • Il atteint un grossissement jusqu’à 7,1x, couvrant une plage focale de 14 à 100 mm, dans un design compact et léger.
  • L’utilisation de l’extenseur intégré convertit la distance focale de 1,5x en 21 mm-150 mm, permettant aux utilisateurs de photographier un sujet distant dans un champ de vision souhaité.
  • Une distance minimale du corps de 0,6 m du plan focal (0,28 m de l’objectif avant) vous permet de capturer des gros plans impressionnants.

Prend en charge les caméras avec capteur Super 35 mm et capteurs équivalents plein format

  • Fonctionne nativement avec le capteur Super 35 mm et prend en charge le capteur équivalent plein format[4] En utilisant l’extenseur intégré pour agrandir le cercle de l’image de 1,5 fois, passant de 28,5 mm à 41,3 mm.
  • Lorsqu’il est monté sur un appareil photo doté d’un capteur équivalent plein format, l’objectif offre ses performances optiques maximales tout en conservant le même angle de vue que lorsqu’il est utilisé sur un appareil photo doté d’un capteur Super 35 mm.

Expressions visuelles cinématographiques avec un magnifique bokeh

  • Grâce à des éléments asphériques de grand diamètre et des lentilles Super-ED (dispersion extra-faible), polies avec une précision avancée, diverses formes d’aberration sont contrôlées avec précision pour obtenir des performances optiques exceptionnelles. Les images fantômes, les reflets et les fuites de couleurs sont également supprimés pour offrir des prises de vue cinématographiques naturelles et contrôlées.
  • Son ouverture maximale est de T2,9 à l’extrémité grand angle (14 mm) et de 75 mm (T3,9 à 100 mm), bien qu’il s’agisse d’un objectif à zoom élevé prenant en charge un grand capteur. Cela rend le DUVO 14-100 mm idéal pour les conditions de faible luminosité, telles que les concerts en salle et les événements sportifs en soirée.
  • Le bokeh de l’objectif produit un aspect cinématographique avec une belle texture et une mise au point naturelle, permettant au conteur de diriger instinctivement l’attention du spectateur vers le sujet mis au point.

Utilisation pratique avec divers accessoires

  • Équipé de la même unité d’entraînement que l’objectif zoom de type mobile et l’objectif zoom portable à monture DUVO HZK24-300 mm T2.9 PL, le DUVO 14-100 mm peut être utilisé de la même manière que les objectifs de diffusion avec des exigences de zoom et de mise au point différentes.
  • Prend en charge les productions en direct multi-caméras, en filmant avec plusieurs caméras en même temps, pour une production efficace.
  • Il peut être connecté à un dispositif de contrôle d’objectif sans fil tiers, une configuration couramment utilisée dans la production cinématographique et les publicités télévisées, pour contrôler à distance la mise au point, l’ouverture et le zoom. Cela prend également en charge la mise au point via un dispositif de mise au point dédié, une configuration courante dans l’industrie cinématographique.
  • La bague de mise au point de l’objectif a une encoche d’engrenage[5] L’objectif a une taille de 0,8 MP, ce qui permet d’utiliser tous les accessoires tiers standard pour la production cinématographique, par exemple un suivi de mise au point ou un moteur externe.
  • Avec un diamètre frontal de 114 mm, boîtier mat[6] Ils peuvent être facilement utilisés dans les productions cinématographiques et commerciales. Alternativement, le pare-soleil en caoutchouc inclus avec filetage de filtre de 127 mm peut être utilisé.
READ  Apple envoie des autocollants pour iPhone jailbreakés aux chercheurs en sécurité : image

Fonctions conviviales pour prendre en charge une prise de vue et un montage pratiques

  • La technologie de compensation respiratoire (BCT) corrige automatiquement la respiration de la mise au point (fluctuations de l’angle de vue lors de la mise au point) pour produire des photos d’apparence naturelle tout en maintenant un champ de vision constant lors des changements de mise au point.
  • La fonction Remote Back Focus (RBF) permet de contrôler la distance focale de la bride[7] Depuis le panneau de contrôle de la caméra ou du système automatisé prenant en charge la fonction RBF. Il permet un montage plus précis à l’aide du grand écran haute résolution et de l’éclairage contrôlé dans une salle de contrôle de studio ou dans un véhicule de diffusion externe plutôt que depuis un écran embarqué.
  • Compatible avec le système ZEISS eXtended Data, basé sur le système Open /i® Norme technologique. Permet l’enregistrement des métadonnées de l’objectif (mise au point, grossissement et position de l’iris) ainsi que la correction de la distorsion et du vignettage de l’objectif.

Prix ​​et disponibilité

L’objectif zoom portable à monture PL FUJINON DUVO 14-100 mm T2.9-3.9 est disponible à la commande dès maintenant au PDSF de 31 999 $ US et sera bientôt expédié. Pour plus d’informations sur le DUVO 14-100 mm, visitez https://www.fujinon.com/duvo.

À propos de Fujifilm

FUJIFILM North America Corporation, une filiale marketing de FUJIFILM Holdings America Corporation, comprend six divisions opérationnelles. La division Imagerie fournit des produits et services photographiques grand public et commerciaux, notamment des consommables aux halogénures d’argent ; consommables pour imprimantes à jet d’encre; équipement, service et assistance d’impression numérique ; et mise en œuvre de produits de portrait ; Et des films ; appareils photo jetables; et la gamme populaire INSTAX® d’appareils photo instantanés, d’imprimantes pour smartphone, de films instantanés et d’accessoires. La division Electronic Imaging commercialise les gammes GFX System et X Series d’appareils photo numériques sans miroir, d’objectifs et d’accessoires pour fournir une variété de solutions de création de contenu pour les images fixes et animées. Le secteur Instruments optiques fournit des lentilles optiques pour les marchés de la diffusion, du cinéma, de la télévision en circuit fermé, de la vidéographie et de l’industrie, et commercialise également des endoscopes et d’autres solutions d’imagerie optique. La division Graphic Communications utilise sa connaissance approfondie du secteur pour développer des solutions d’impression traditionnelles et numériques entièrement prises en charge pour les secteurs tels que l’impression commerciale, grand format et d’emballage, grâce à sa gamme complète de presses à jet d’encre numériques, d’imprimantes à jet d’encre de production et de logiciels. La division Produits industriels propose de nouveaux produits dérivés des technologies Fujifilm, notamment des produits sur bandes de stockage de données, notamment des cartouches OEM et FUJIFILM Ultrium LTO, des solutions de dessalement, des microfiltres et des membranes de séparation de gaz. Notre division d’essais non destructifs fournit des solutions de radiographie pour garantir une inspection haute résolution des infrastructures et des actifs de transport dans les industries aérospatiale, pétrolière et gazière.

READ  Le capteur ECG de l'Apple Watch peut prédire avec précision le niveau de stress : étude : The Tribune India

Pour plus d’informations, veuillez visiter https://www.fujifilm.com/us/en/about/region, accédez à www.twitter.com/fujifilmus Pour suivre Fujifilm sur Twitter, ou rendez-vous sur www.facebook.com/FujifilmNorthAmerica Pour aimer la page Facebook Fujifilm.

Basée à Tokyo, Fujifilm Holdings Corporation s’appuie sur ses connaissances approfondies et ses technologies de base exclusives pour proposer des produits et services innovants dans le monde entier à travers ses quatre principaux secteurs d’activité : santé, électronique, innovation commerciale et imagerie, avec plus de 70 000 employés. Guidés et unis par notre objectif de groupe « Donner plus de sourires à notre monde », nous relevons les défis sociaux et créons un impact positif sur la société à travers nos produits, services et opérations commerciales. Dans le cadre du plan de gestion à moyen terme VISION2030, qui se termine au cours de l’exercice 2030, nous aspirons à poursuivre notre évolution vers une entreprise créatrice de valeur et qui fait sourire diverses parties prenantes en tant que groupe d’entreprises de premier plan mondial et à réaliser un chiffre d’affaires mondial de 4 000 milliards de yens ( 29 milliards de dollars américains à un taux de change de 140 JPY/USD). Pour plus d’informations, veuillez visiter : www.fujifilmholdings.com.

Pour plus de détails sur notre engagement en faveur du développement durable et sur le plan de valeur durable 2030 de Fujifilm, Cliquez ici.

FUJIFILM, VALUE FROM INNOVATION, FUJINON, DUVO et INSTAX sont des marques commerciales de FUJIFILM Corporation et de ses filiales. Steadicam est une marque commerciale et une marque commerciale de The Tiffen Company. /i est une marque déposée de Cooke Optics Limited. Les autres marques, logos et marques de tiers utilisés dans ces documents sont la propriété de leurs propriétaires respectifs.

READ  Prix, fonctionnalités et plus – India TV

[1] Capteur super 35 mm et capteur plein format, avec l’extenseur 1,5x activé dans le DUVO 14-100 mm.

[2] Un prolongateur 1,5x peut élargir le cercle d’image pour couvrir les capteurs d’appareil photo plein format et étendre la distance focale vers le côté téléobjectif sur les capteurs d’appareil photo Super 35 mm.

[3] L’équipement Steadicam est utilisé pour filmer des vidéos stables, réduisant ainsi les tremblements indésirables et autres mouvements pouvant survenir lors de la prise de vue avec l’appareil photo et l’objectif en main. Les produits Steadicam sont disponibles séparément auprès de tiers et ne sont pas affiliés à Fujifilm.

[4] Capable de couvrir un cercle d’image de 28,5 mm sur toute la plage de zoom lorsqu’il est combiné avec un appareil photo doté d’un capteur Super 35 mm, et avec l’extenseur 1,5x activé pour couvrir un cercle d’image allant jusqu’à 41,3 mm sur toute la plage de zoom lorsqu’il est combiné avec un appareil photo avec un capteur équivalent plein format.

[5] La distance entre les dents de l’engrenage focal

[6] Un pare-soleil avec une grande flexibilité pour fixer des filtres et ajuster le blocage de la lumière à l’aide de drapeaux.

[7] La distance entre le rebord de l’objectif et le capteur d’image de l’appareil photo

© 2024 Fujifilm Amérique du Nord et ses filiales. Tous droits réservés.

Continue Reading

Tech

PoCcode a été publié pour corriger une vulnérabilité critique dans Windows qui nécessite le clic d’un seul bouton. • The Register

Published

on

PoCcode a été publié pour corriger une vulnérabilité critique dans Windows qui nécessite le clic d’un seul bouton. • The Register

Les utilisateurs de Windows qui n’ont pas encore installé les derniers correctifs pour leur système d’exploitation devront aller de l’avant, car il existe désormais un code permettant d’exploiter une grave vulnérabilité annoncée par Redmond il y a deux semaines.

Le défaut CVE-2024-38063Ce logiciel a un score CVSS de 9,8 car il permet à un attaquant non authentifié d’exécuter du code à distance sur un appareil non corrigé à l’aide d’un paquet IPv6 spécialement conçu et de le spammer pour trouver des appareils vulnérables. La seule solution consiste à désactiver IPv6 et à s’appuyer sur IPv4, ce qui est irréaliste pour de nombreuses personnes.

Windows 10, Windows 11 et Windows Server sont tous menacés. À l’époque, Microsoft avait déclaré qu’il n’y avait aucune preuve que la vulnérabilité avait été exploitée publiquement, mais il la classait comme « plus probable » que quelqu’un trouve un moyen de l’exploiter.

Et c’est ce qui s’est passé. Le programmeur nommé Ynwarcs l’a désormais Logiciel publié Ils sont conçus pour exploiter la vulnérabilité. Ils soulignent que le code PoC est « quelque peu volatile ». Cependant, « le moyen le plus simple de reproduire la vulnérabilité est d’utiliser… bcdedit /set debug on « Sur le système cible et redémarrez le périphérique/la machine virtuelle », conseillent-ils.

« Cela crée le pilote de carte réseau par défaut kdnic.sys, qui fusionne facilement les paquets. Si vous essayez de reproduire la vulnérabilité sur une configuration différente, vous devrez mettre le système en mesure de fusionner les paquets que vous avez envoyés. »

READ  Tout ce que vous devez savoir sur le casque VR/AR d'Apple

Microsoft a publié un correctif pour le problème dans son dernier Patch Tuesday du 13 août, mais il n’est pas rare que les responsables attendent de voir si des correctifs causeront des problèmes (comme les correctifs d’août l’ont fait pour les utilisateurs Linux) ou les déplacent simplement vers le bas de la page. la file d’attente en raison d’un besoin plus urgent d’attention. Cela a conduit au phénomène Exploit Wednesday, dans lequel des fraudeurs utilisent des informations de correctifs pour attaquer des failles récemment révélées, bien qu’en pratique ils ne soient pas si prompts à les exploiter.

Mardi, vous vous souviendrez peut-être de Marcus Hutchins comme du pirate informatique qui a déjoué l’attaque du logiciel malveillant WannaCry et qui a ensuite été arrêté pour crimes informatiques contre des adolescents. Il a été publié Son point de vue sur la vulnérabilité, bien qu’il n’y ait pas de code de preuve de concept.

« Il faut généralement des jours, voire des semaines, pour qu’un correctif fasse l’objet d’une ingénierie inverse afin de déterminer quel changement de code correspond à la vulnérabilité, mais dans ce cas, cela a été immédiat », a-t-il noté.

« C’était si simple que de nombreuses personnes sur les réseaux sociaux m’ont dit que j’avais tort et que le bug se trouvait ailleurs. Une seule modification a été apportée à l’ensemble du fichier du pilote, qui s’est finalement avérée être le bug. »

Maintenant que cette vulnérabilité particulière retient beaucoup l’attention des pirates informatiques, les criminels ne manqueront pas de s’en prendre à elle. Sa propriété sans clic et sa portée étendue en font un fourrage idéal pour les escrocs en ligne cherchant à gagner de l’argent. Alors dépêchez-vous et réparez-le – vous avez été prévenu.

READ  Un logo Apple rétroéclairé pourrait apporter un retour aux futurs MacBook

Continue Reading

Trending

Copyright © 2023