Chaque fois que je suis assez impressionné par les méthodes qui sont découvertes et/ou développées à la fois pour obtenir des informations et pour accéder à la section X, pirater l’appareil X et c’est que jusqu’à présent celles qui me fascinent encore beaucoup sont celles qui sont basées sur le les sons générés par le ventilateur du processeur pour obtenir des informations, ainsi que l’utilisation du pour voir à travers les murs, entre autres.
C’est pourquoi, personnellement, j’aime beaucoup partager ce type de nouvelles ici sur le blog et dans le cas d’ aujourd’hui, je partagerai les nouvelles sur le développement d’ une méthode créée par une équipe de chercheurs qui est basée sur la détection de la saisie au clavier avec Précision de 95% en analysant le son des frappes enregistrées par un smartphone à proximité ou capté par un microphone à proximité.
La précision de détection d’entrée éprouvée dépasse toutes les méthodes d’analyse acoustique caractère par symbole connues jusqu’à présent qui n’utilisent pas de modèle de langage. La méthode proposée peut être utilisée, par exemple, pour déterminer les mots de passe saisis ou les messages tapés, dans une situation où l’attaquant a placé son smartphone à côté de la victime ou a reçu un enregistrement sonore tout en saisissant des informations confidentielles (par exemple, lorsque pendant la communication la victime se connecte avec un mot de passe pour certains systèmes d’information).
Avec les développements récents de l’apprentissage en profondeur, l’omniprésence des microphones et l’essor des services en ligne via des appareils personnels, les attaques acoustiques par canal latéral présentent une plus grande menace que jamais pour les claviers.
L’entrée est recréée à l’aide d’un classificateur basé sur un modèle d’apprentissage automatique qui prend en compte les caractéristiques sonores et le niveau de volume lorsque différentes touches sont enfoncées.
Il est mentionné que pour effectuer une attaque, une formation préalable du modèle est nécessaire , pour laquelle il est nécessaire de faire correspondre le son d’entrée avec des informations sur les touches enfoncées. Dans des conditions idéales, le modèle peut être formé à l’aide de logiciels malveillants installés sur l’ordinateur attaqué, ce qui permet d’enregistrer simultanément le son d’un microphone et d’intercepter les frappes.
Dans un scénario plus réaliste, les données nécessaires pour former le modèle pourraient être collectées en faisant correspondre les messages texte d’entrée avec l’audio d’un ensemble enregistré à la suite d’une vidéoconférence. La précision de la détection des entrées lors de la formation d’un modèle basé sur l’analyse des entrées de visioconférence Zoom et Skype diminue légèrement à 93 % et 91,7 %, respectivement.
Dans une expérience visant à former un modèle d’apprentissage automatique à l’aide de l’audio d’une conférence Zoom, chacune des 36 touches (0-9, a-z) du clavier a été enfoncée 25 fois de suite avec des doigts différents et avec une force différente.
Les données sur le son de chaque battement ont été transformées en une image avec un spectrogramme qui reflétait le changement de fréquence et d’amplitude du son au fil du temps.
Les spectrogrammes ont été transférés pour la formation à un classificateur basé sur le modèle CoAtNet , utilisé pour la classification des images dans les systèmes de vision industrielle. C’est-à-dire que pendant la formation, l’image est comparée au spectrogramme de chaque frappe avec le nom de la touche. Pour déterminer les touches enfoncées par le son, le modèle CoAtNet renvoie la touche la plus probable en fonction du spectrogramme transmis, similaire au renvoi de l’étiquette la plus probable lors de la reconnaissance d’objets par leur image.
À l’avenir, les chercheurs ont l’intention d’explorer la possibilité de recréer l’entrée au clavier en enregistrant le son des haut-parleurs intelligents et, pour améliorer la précision de la détermination du texte d’entrée, d’utiliser un modèle de langage qui classe l’entrée dans le contexte de mots entiers.
Enfin , si vous souhaitez en savoir plus , vous pouvez consulter les détails dans le lien suivant.