de en it fr

Loi sur la protection des dénonciateurs de crimes dans le contexte de l'intelligence artificielle générative : une enquête expérimentale sur les formes potentielles d'abus et leurs implications dogmatiques

Cet article aborde la problématique des signalements abusifs effectués par les lanceurs d'alerte qui peuvent être générés grâce à l'utilisation de l'intelligence artificielle. Cette question fait l'objet d'une enquête expérimentale basée sur la loi sur la protection des dénonciateurs de crimes et la loi sur la diligence dans la chaîne d'approvisionnement (LkSG).

La dénonciation représente un élément crucial pour révéler et dénoncer les irrégularités et les crimes au sein d'une entreprise. Des lois telles que la LkSG et la loi sur la protection des dénonciateurs de crimes offrent, d'une part, une protection de l'identité présumée des lanceurs d'alerte et, d'autre part, encouragent les entreprises à mener des activités conformes à la loi. Cependant, aussi bien la LkSG que la loi sur la protection des dénonciateurs de crimes peuvent être utilisées de manière inappropriée, et le risque augmente considérablement lorsque l'on considère l'utilisation de systèmes d'intelligence artificielle à des fins malveillantes. Les systèmes d'intelligence artificielle peuvent générer un grand nombre de signalements frauduleux contre les entreprises, agissant ainsi comme de faux lanceurs d'alerte. Cela entraîne une dépense importante de ressources pour les entreprises et pourrait causer des dommages durables à leur réputation.

Dans l'article, l'auteur se met dans la peau d'un potentiel auteur de signalements frauduleux et explore comment créer divers signalements fabriqués et anonymes. À travers une expérience réaliste, l'auteur cherche à obtenir les informations et les procédures nécessaires en posant différentes questions au système d'intelligence artificielle. L'auteur varie les signalements de manière à ce qu'aucun schéma prévisible n'émerge. L'expérience se concentre sur la communication avec l'intelligence artificielle, formulée à travers différentes questions pour simuler divers scénarios. Par exemple, l'auteur cherche à découvrir comment un signalement sans preuves peut sembler si crédible qu'il est pris au sérieux par l'entreprise. L'intelligence artificielle fournit une réponse optimale à la question, qui pourrait être immédiatement exploitée par l'autorité présumée pour un signalement frauduleux.

L'article souligne que même des personnes sans compétences informatiques avancées peuvent générer des signalements à grande échelle. Les solutions actuelles présentent des inconvénients importants. Une solution possible pourrait être la vérification des signalements pour détecter d'éventuels abus. Cependant, si le nombre de signalements est élevé, la précision de la vérification diminue, avec le risque que des signalements légitimes soient négligés ou vérifiés avec peu de précision.

L'auteur de l'article est le Dr. iur. Dr. rer. pol. Fabian Teichmann, LLM, et il a été publié en août 2023 dans NZWiSt. Fabian Teichmann est un avocat actif en Suisse et est le Managing Partner de Teichmann International (Schweiz) AG. Il est également notaire public à Saint-Gall et enseigne dans plusieurs universités nationales et internationales.