ACTUALITE INNOVATIONS TECHNOLOGIQUES

1 février 2022 | Nos newsletters, 2021, Dec 2021

Forum innovation défense

La 3e édition du Forum innovation défense (FID) qui s’est tenu les 25, 26 et 27 novembre à l’espace Champerret, à Paris était l’occasion de réunir les acteurs de l’innovation de défense autour des projets phares soutenus par le Ministère des Armées.

Plus de 110 projets ont été présentés répartis en 6 univers : gagner la guerre avant la guerre ; soutenir le combattant ; innover pour se transformer ; anticiper les ruptures ; construire ensemble ; 60 ans d’innovation à la DGA..

Parmi eux: RENFORCER LA SÉCURITÉ DES PUCES ÉLECTRONIQUES
Soutenue dans la cadre du dispositif Rapid par le ministère des armées, la PME bordelaise Eshard, spécialisée dans la sécurité des logiciels embarqués, vient de boucler l’un de ses projets de recherche, Scatter. Sous-traitant de grandes entreprises de la tech, comme Google, Thales ou encore Visa, cette entreprise teste la sécurité matérielle de terminaux ou de cartes à puces, un des fondements de notre cybersécurité.

Sa spécialité ? Les attaques par canaux auxiliaires, en clair l’extraction et l’interprétation de différents signaux émis par un système, comme par exemple l’activité électromagnétique. Un domaine très investi par les attaquants : avec du temps et des moyens, les appareils électroniques sont vulnérables. Lancé il y a quatre ans, le projet Scatter vise justement à étudier une nouvelle technique d’attaque permettant de s’affranchir d’une étape chronophage, la synchronisation du signal. Les résultats, qui viennent d’être présentés dans une publication scientifique, sont prometteurs.

Selon l’entreprise, le test de ce nouvel outil a permis d’obtenir des clés cryptographiques avec trois à dix fois moins de données d’observation nécessaires que des techniques classiques. Un résultat significatif pour Aurélien Vasselle, analyste en sécurité, qui “risque de déplacer le curseur en faveur de l’attaquant”. La technique va bien sûr intéresser les agences de renseignement. Tandis que cette nouvelle menace est désormais à prendre en compte, pour la conception de leurs produits, par les fabricants de téléphones, de cartes à puces, ou d’objets connectés.

Pour en savoir plus, Téléchargez le dossier de presse FID 2021

 

L’Unesco adopte une recommandation sur l’éthique de l’intelligence artificielle

Les 193 Etats membres de l’Unesco ont adopté le 24 novembre 2021 une Recommandation qui vise à donner “une orientation éthique” aux technologies d’intelligence artificielle. Ce premier instrument juridique mondial sur l’IA n’est pas contraignant pour les signataires mais les pousse à adopter leur propre cadre afin de lutter contre certaines dérives, comme les biais ou la violation de la vie privée.
Ce texte est le fruit du travail d’un groupe d’experts constitué en mars 2020 qui était chargé d’élaborer un projet de recommandation sur l’éthique de l’IA. Une première version a été rédigée à la suite d’un vaste processus de consultation qui s’est déroule en ligne, mais aussi au travers d’ateliers et de consultations régionales. Ce processus a donné lieu à plus de 50 000 commentaires sur le texte. La version définitive de la recommandation vient donc d’être adoptée.

Il est important de préciser que ce texte n’est pas contraignant pour les Etats signataires, dont la France fait partie en tant que membre fondateur. Ce cadre a néanmoins le mérite d’exister et pourrait inspirer de futures réglementations nationales.

DONNER UNE ORIENTATION RESPONSABLE
L’objectif du texte est de “donner une orientation responsable aux technologies de l’IA“. Il cite “les biais susceptibles de comporter ou d’accentuer des inégalités et exclusions” et le menace de “la diversité culturelle, sociale et écologique et entraîner des clivages sociaux ou économiques” comme risques possiblement engendrés par l’IA. L’Unesco rappelle aussi que l’IA possède de nombreux bénéfices à condition d’en assurer “un accès équitable” tout en tenant compte “des dommages et des impacts“.

La recommandation ne fournit pas de définition “unique” de l’IA, “celle-ci étant appelée à évoluer en fonction des progrès technologiques“. Elle vise en général les “systèmes technologiques capables de traiter l’information par un processus s’apparentant à un comportement intelligent, et comportant généralement des fonctions de raisonnement, d’apprentissage, de perception, d’anticipation, de planification ou de contrôle”.

Rappelant que les systèmes doivent respecter la vie privée, être robustes et ne pas provoquer de discriminations, l‘Unesco recommande aux Etats de mettre en place “des études d’impact” pour identifier les avantages et les risques. Ils doivent mettre en évidence “les répercussions sur les droits de l’Homme, le droit du travail, l’environnement et les écosystèmes“. Des mécanismes de “diligence” et de “supervision” devraient également être mis en place par les Etats et les entreprises.

PAS DE PERSONNALITÉ JURIDIQUE
La recommandation se penche également sur la responsabilité en cas de dommages causés par un système d’apprentissage automatique. Elle conseille aux Etats de veiller à ce que les préjudices causés fassent l’objet “d’enquêtes et de réparation” en mettant place “des mécanismes d’exécution solides et des mesures correctives“. Précision importante : elle estime que les systèmes ne doivent pas disposer d’une personnalité juridique mais que la responsabilité doit toujours incomber à une personne physique ou morale.

Etant intimement liées à l’IA, les données doivent faire l’objet de politique, rapporte l’Unesco. Il convient d’évaluer “la qualité des données d’entraînement“, notamment “l’adéquation des processus de collecte et de sélection des données“. Il est également indispensable de trouver un équilibre entre la collecte des données et la protection de la vie privée.

En revanche, l’Unesco n’aborde pas directement le sujet de la reconnaissance faciale. Un thème pourtant central dont l’Union européenne s’est par exemple emparée. La Commission européenne propose une utilisation strictement encadrée des systèmes d’identification biométrique à distance dans les lieux publics, à savoir : la recherche de victimes, la prévention d’une menace spécifique, la détection ou l’identification d’un suspect pour une infraction punie d’une peine ou d’une mesure privative de liberté de trois ans.

 

Share This