A
A

Les jeux olympiques de Paris sous la surveillance de l’IA !

lun 04 Mar 2024 ▪ 3 min de lecture ▪ par Eddy S.
S'informer Cybersécurité

L’édition 2024 des Jeux olympiques de Paris sera placée sous haute surveillance. La police française prévoit de déployer un nouvel outil : des caméras dotées de l’IA, pour détecter les menaces en temps réel. Mais ce choix fait débat, car il pose des questions cruciales sur le respect de la vie privée.

IA Jeux Olympiques

Les yeux de l’IA sur Paris

C’est une première mondiale. Lors des JO de Paris 2024, des caméras intelligentes analyseront les foules en continu. Grâce à l’IA, elles pourront identifier huit types de situations suspectes : mouvements de foule anormaux, colis abandonnés, présence d’armes, etc. 

Six de ces caméras ultra-sophistiquées sont actuellement testées à l’Accor Arena de Paris. Elles serviront notamment lors de deux concerts tests, avant d’être pleinement opérationnelles pour les JO. L’objectif est d’éviter tout incident, après le chaos du Stade de France lors de la finale de la Ligue des Champions 2022.

Pour la police, ce dispositif renforcera considérablement la sécurité des JO, événement majeur sous surveillance maximale. Les caméras IA décupleront les capacités humaines en filtrant les flux vidéo en temps réel. De quoi détecter quasi-instantanément les débuts d’incidents dans la foule.

Les enjeux éthiques de la surveillance intelligente

Mais l’utilisation de ces technologies soulève de vives critiques. D’abord, elles reposent sur des algorithmes opaques, dont le fonctionnement exact est difficile à vérifier. Ensuite, la surveillance de masse, aussi intelligente soit-elle, pose des risques pour les libertés individuelles.

Certes, l’enjeu sécuritaire des JO est réel. Néanmoins, déployer ces outils de manière pérenne créerait un dangereux précédent. La reconnaissance faciale à large échelle menacerait le droit à l’anonymat dans l’espace public. Et la collecte de ces mégadonnées personnelles doit rester strictement encadrée.

Autre interrogation : la fiabilité de ces outils d’IA. Leur précision est encore limitée, comme le montrent certaines expérimentations policières. Aux États-Unis, des logiciels de prédiction des crimes ont conduit à des arrestations injustifiées dans des quartiers défavorisés.

En somme, l’IA appliquée à la sécurité peut apporter un soutien précieux aux forces de l’ordre. Mais à condition de respecter des balises éthiques strictes et que les humains conservent le contrôle final. Car confier nos libertés à la machine, aussi intelligente soit-elle, serait irresponsable. Les caméras intelligentes des JO révèlent le dilemme du siècle à venir. Comment tirer parti des progrès technologiques tout en préservant l’essence de nos démocraties ? Trouver le juste équilibre entre sécurité et libertés sera le défi des prochaines années.

Maximisez votre expérience Cointribune avec notre programme 'Read to Earn' ! Pour chaque article que vous lisez, gagnez des points et accédez à des récompenses exclusives. Inscrivez-vous dès maintenant et commencez à cumuler des avantages.


A
A
Eddy S. avatar
Eddy S.

Le monde évolue et l'adaptation est la meilleure arme pour survivre dans cet univers ondoyant. Community manager crypto à la base, je m'intéresse à tout ce qui touche de près ou de loin à la blockchain et ses dérivés. Dans l'optique de partager mon expérience et de faire connaître un domaine qui me passionne, rien de mieux que de rédiger des articles informatifs et décontractés à la fois.

DISCLAIMER

Les propos et opinions exprimés dans cet article n'engagent que leur auteur, et ne doivent pas être considérés comme des conseils en investissement. Effectuez vos propres recherches avant toute décision d'investissement.