LOADING

Type to search

Braindegeek

Intelligence artificielle, CHAT GPT, les dérives, arnaques et dangers

blank
Share
Les dangers de l'intelligence artificielle

Attention l’intelligence artificielle c’est bien, mais les arnaques arrivent ! Imaginez une IA qui arrive avec un simple enregistrement de votre voix à refaire un texte avec exactement la même intonation ? Elle existe ! Vous combinez ça avec une IA qui anime une photo de vous et vous obtenez une Deep Fake !

Pour commencer, j’ai testé CHAT GPT pour voir son éthique.

Exercice pratique, j’ai demandé à Chat GPT de m’écrire un mail de type Phishing :

blank

J’ai essayé de détourner un peu mais je n’y suis pas arrivé.

blank

Des applications clones de ChatGPT collectent des données personnelles sur iOS et Play Store

Selon hackread le 31 janvier, plusieurs fausses applications clones de ChatGPT ont fait surface sur les boutiques officielles iOS et Play Store, collectant les données des utilisateurs et les envoyant à des serveurs externes.

Petit conseil de lecture : Les meilleurs outils de l’IA en 2023.

Des faux graphistes, des faux beatmakers, des faux rédacteurs…

Imaginez un monde ou vous rentrez 3 mots clés dans un outil et il vous propose des dizaines de logos gratuitement ? Ce monde existe, avec DALL E, vous pouvez le faire. En tapant : digital art geek brain logo, voici les résultats que j’ai pu avoir.

blank

On peut donc facilement se faire passer pour graphiste en utilisant une IA. Vous pouvez faire pareil avec une IA qui fait des sons pour vous, une IA qui fait du contenu rédactionnel…

J’ai demandé à CHAT GPT les arnaques et les dérives

Avant de vous montrer la réponse, j’ai été intervenant sur ce sujet là sur Fun Radio. Voici la vidéo de l’émission ;

Quels sont les arnaques sur les outils d’intelligence artificielle :

Il existe plusieurs types d’escroqueries liées à l’IA :

  1. Arnaques de trading d’IA : Les escrocs prétendent vendre des logiciels de trading automatisés basés sur l’IA qui peuvent générer des profits élevés, mais en réalité, ils ne fonctionnent pas.
  2. Arnaques de reconnaissance faciale : Les escrocs vendent des systèmes de reconnaissance faciale qui ne fonctionnent pas comme promis ou utilisent des données pour des fins illégitimes.
  3. Arnaques de diagnostic médical : Les escrocs vendent des logiciels de diagnostic médical basés sur l’IA qui ne sont pas fiables et peuvent causer des dommages à la santé.
  4. Arnaques de marketing basées sur l’IA : Les escrocs utilisent des algorithmes d’IA pour diffuser des messages publicitaires frauduleux et peuvent également collecter des informations personnelles pour les utiliser à des fins malveillantes.

Il est important de faire preuve de prudence lorsqu’il s’agit d’investir dans des produits ou services basés sur l’IA et de vérifier auprès de sources fiables avant de prendre une décision.

Il existe plusieurs dérives potentielles liées à l’utilisation de l’IA :

  1. Biais dans l’IA : Les algorithmes d’IA peuvent être biaisés en raison de l’utilisation de données historiques qui ne sont pas représentatives ou qui sont discriminatoires.
  2. Décisions automatisées non éthiques : Les algorithmes d’IA peuvent prendre des décisions qui sont non éthiques ou qui vont à l’encontre des droits de l’homme.
  3. Surveillance accrue : L’IA peut être utilisée pour surveiller les citoyens, ce qui peut mettre en danger la vie privée et les libertés civiles.
  4. Dépendance accrue : L’IA peut rendre les gens dépendants de la technologie, ce qui peut affecter leur capacité à accomplir certaines tâches sans assistance.
  5. Perte d’emplois : L’IA peut automatiser certains emplois, ce qui peut entraîner une perte d’emplois pour les travailleurs humains.

Il est important de veiller à ce que l’IA soit utilisée de manière responsable et éthique afin d’éviter ces dérives potentielles.

Comment les escrocs utilise l’intelligence artificielle ?

Les escrocs peuvent utiliser l’IA de plusieurs manières pour commettre des fraude:

  1. Phishing automatisé : Les escrocs peuvent utiliser des algorithmes d’IA pour envoyer des courriels de phishing de manière massive et ciblée, ce qui peut augmenter les chances de succès.
  2. Impersonation en ligne : Les escrocs peuvent utiliser des algorithmes d’IA pour imiter des personnes en ligne, ce qui peut les aider à tromper les gens et à obtenir des informations confidentielles.
  3. Analyse de données pour la détection de la fraude : Les escrocs peuvent utiliser des algorithmes d’IA pour analyser les données financières et les transactions pour détecter les anomalies et les utiliser pour commettre des fraudes.
  4. Trading automatisé frauduleux : Les escrocs peuvent utiliser des algorithmes d’IA pour effectuer des transactions frauduleuses sur les marchés financiers.
  5. Publicité malveillante : Les escrocs peuvent utiliser des algorithmes d’IA pour diffuser de la publicité malveillante ou pour diriger les utilisateurs vers des sites Web frauduleux.

Il est important de rester vigilant et de faire preuve de prudence lorsqu’il s’agit d’utiliser des produits ou services basés sur l’IA pour éviter d’être victime d’une escroquerie.

Conclusion ?

Certaines IA comme Chat GPT semble avoir une politique éthique, mais si on cherche bien on peut trouver comment détourner cette politique. En 2023 et dans les années qui vont suivre les infox vont circuler en masse.

Il va être dur de savoir ce qui est vrai ou faux sur internet.

Quand j’étais éleve j’avais Encarta, en 2023 ils ont CHAT GPT

blank
blank
Brain De Geek

Je suis un hyperactif du web, mais je me soigne.

  • 1

Leave a Comment

Your email address will not be published. Required fields are marked *