les erreurs de chatGPT ?

Pour tout ce qui est bavardage, hors-sujet et cie.

Modérateurs : Diamond, watch, Barbapapa, Casimir

Re: les erreurs de chatGPT ?

Message par Vinnie » 08 Juin 2023 00:54

ccol, j'avais déja entendu cette chronique d'Amin en live à la radio ... Et même en la relisant, elle ne me rassure pas, elle me fait plutot pitié... On s'en balecs de la tondeuse automatique de son jardinier !
Je suis responsable de ce que je dis,
je ne suis pas responsable de ce que vous comprenez
Avatar de l’utilisateur
Vinnie
Acharné
Acharné
 
Message(s) : 4343
Inscription : 30 Juin 2007 20:56

Re: les erreurs de chatGPT ?

Message par TC » 09 Juin 2023 15:41

Ouais, Amid Faljaoui, tant qu'il parle d'économie, ca va... Mais quand il parle technologie, c'est souvent n'importe quoi... Comme ici... Comparer un robot tondeuse à une IA... Faut oser...
TC
Acharné
Acharné
 
Message(s) : 4105
Inscription : 07 Jan 2003 10:49

Re: les erreurs de chatGPT ?

Message par Vinnie » 29 Août 2023 16:40

Elon Musk a reçu l'autorisation de tester des brols pour implanter des puces IA dans le cerveau humain :o
Il dit qu'on sera obligés de passer par là pour ne pas devenir les moutons de l'IA
Il sera peut-être possible de communiquer avec l'IA par la pensée.

Ce type est un malade !
Certains appareils électriques prennent feu sans raison. J'aimerais voir ce que donnerait un mini canon à impulsions électromagnétiques sur un cerveau augmenté :alcoholic: :roll:
Je suis responsable de ce que je dis,
je ne suis pas responsable de ce que vous comprenez
Avatar de l’utilisateur
Vinnie
Acharné
Acharné
 
Message(s) : 4343
Inscription : 30 Juin 2007 20:56

Re: les erreurs de chatGPT ?

Message par ccol » 30 Août 2023 00:20

Vinnie a écrit :J'aimerais voir ce que donnerait un mini canon à impulsions électromagnétiques sur un cerveau augmenté :alcoholic: :roll:

Probablement le même genre de choses que sur un coeur équipé d'implants cardiovasculaires ...
Avatar de l’utilisateur
ccol
Acharné
Acharné
 
Message(s) : 2572
Inscription : 08 Oct 2008 22:25

Re: les erreurs de chatGPT ?

Message par Vinnie » 30 Août 2023 19:38

ccol a écrit :
Vinnie a écrit :J'aimerais voir ce que donnerait un mini canon à impulsions électromagnétiques sur un cerveau augmenté :alcoholic: :roll:

Probablement le même genre de choses que sur un coeur équipé d'implants cardiovasculaires ...

à propos d'implants cardiovasculaires, plusieurs films font état de hackers qui font mourir le porteur d'un implant cardiaque ... Cela est-il vraiment possible ?
Je suis responsable de ce que je dis,
je ne suis pas responsable de ce que vous comprenez
Avatar de l’utilisateur
Vinnie
Acharné
Acharné
 
Message(s) : 4343
Inscription : 30 Juin 2007 20:56

Re: les erreurs de chatGPT ?

Message par ccol » 30 Août 2023 23:52

Vinnie a écrit :Cela est-il vraiment possible ?

Dans la mesure où le contrôle et le paramétrage de l'implant cardiaque s'effectuent sans fil et même à distance, il est théoriquement toujours possible d'ouvrir une session pirate pour faire joujou avec le dispositif. Néanmoins, tu te doutes bien que c'est un petit peu plus compliqué que de cracker le wifi de tes voisins ! :wink:

En pratique, je pense que les champs électromagnétiques intenses sont plus à craindre car plus fréquents et pas toujours identifiés.
Même si les implants actuels semblent plus résistants aux perturbations courantes qu'auparavant, la prudence reste de rigueur. Par exemple, éviter de se coller aux enceintes accoustiques lors d'un festival pop ! Ne pas se pencher sur le moteur de la voiture lorsqu'il tourne (bobine HT) ! Rester à distance des postes à souder électriques, etc.

Il faut aussi savoir que les examens médicaux de type "IRM" ne sont pas possibles en présence de certains modèles d'implants. D'autres sont cependant prévus pour pouvoir être désactivés et protégés le temps de l'examen.
Avatar de l’utilisateur
ccol
Acharné
Acharné
 
Message(s) : 2572
Inscription : 08 Oct 2008 22:25

Re: les erreurs de chatGPT ?

Message par Vinnie » 01 Sep 2023 00:26

https://alm.developpez.com/actu/347748/ ... itionnels/
Créer des applis sans coder : fantasme ou réalité ? Amazon annonce la fermeture de sa plateforme no code dénommée Honeycode,
Censée répondre à une pénurie annoncée de développeurs traditionnels

...
ChatGPT a réussi à l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires US. Un internaute a proposé une compilation des réponses proposées par le chatbot après avoir souligné que l’intelligence artificielle a pris 32 points sur les 36 possibles. ChatGPT a en sus réussi l’examen de codage Google pour un ingénieur de niveau 3 avec un salaire de 183 000 $. Ce sont des raisons pour lesquelles certains observateurs sont d’avis que les travailleurs de la filière du développement informatique sont menacés par l’intelligence artificielle. Emad Mostaque, PDG de Stability AI en fait partie et prédit qu’il n’y aura plus de programmeurs dans 5 ans.

« C’est un fait : 41 % de tout le code informatique sur GitHub est généré par une intelligence artificielle. ChatGPT est déjà capable de passer un examen de codage pour ingénieur de niveau 3 », souligne Emad Mostaque avant d’ajouter « qu’il n’y aura pas de programmeurs humains dans 5 ans. »

" There will be NO programmers in 5 years."
...
Je suis responsable de ce que je dis,
je ne suis pas responsable de ce que vous comprenez
Avatar de l’utilisateur
Vinnie
Acharné
Acharné
 
Message(s) : 4343
Inscription : 30 Juin 2007 20:56

Re: les erreurs de chatGPT ?

Message par 35b » 01 Sep 2023 20:34

La plus grande menace ce sont les indiens. Même chez proximus, propriété à 53% de l'Etat, c'est tout à l'indien. C'est une honte, c'est moins cher mais on ne finance pas la sécu ni les pensions. Ce monde creuse son trou.
Avatar de l’utilisateur
35b
Habitué
Habitué
 
Message(s) : 262
Inscription : 22 Mars 2022 09:08

Re: les erreurs de chatGPT ?

Message par Vinnie » 02 Sep 2023 01:44

35b a écrit :La plus grande menace ce sont les indiens. Même chez proximus, propriété à 53% de l'Etat, c'est tout à l'indien. C'est une honte, c'est moins cher mais on ne finance pas la sécu ni les pensions. Ce monde creuse son trou.

Et pendant ce temps, proximus continue d'augmenter ses tarifs minimum une fois par an
Je suis responsable de ce que je dis,
je ne suis pas responsable de ce que vous comprenez
Avatar de l’utilisateur
Vinnie
Acharné
Acharné
 
Message(s) : 4343
Inscription : 30 Juin 2007 20:56

Re: les erreurs de chatGPT ?

Message par 35b » 02 Sep 2023 06:18

Vinnie a écrit :Et pendant ce temps, proximus continue d'augmenter ses tarifs minimum une fois par an

Cela ne compense même pas l'inflation.
C'est tout le secteur qui est en difficulté en Europe.
C'est paradoxal mais au plus ils offrent (ftth,5G) au moins ils gagnent car les services qu'ils proposent sont exposés à une concurrence des petits spécialisés (mvno, voip pabx) et des gafams (cloud,teams, whatsapp,...). A quoi s'ajoute la généralisation de l'illimité et de l'itinérance en UE.
L'Etat est aussi complètement idiot d'avoir laissé entrer DIGI: qui d'autre au monde mettrait sciemment une de ses sociétés sur les genoux ?
Les prix vont baisser, peut-être, mais cela voudra aussi dire moins de rentrées tva, encore plus d'indiens et moins de belges, moins de dividende.
Cela n'empêche pas les directeurs de bien dormir, ils toucheront leur gros salaire quoi qu'il arrive.
Avatar de l’utilisateur
35b
Habitué
Habitué
 
Message(s) : 262
Inscription : 22 Mars 2022 09:08

Re: les erreurs de chatGPT ?

Message par Vinnie » 06 Fév 2024 03:00

35b a écrit :
Vinnie a écrit :Et pendant ce temps, proximus continue d'augmenter ses tarifs minimum une fois par an

Cela ne compense même pas l'inflation.
C'est tout le secteur qui est en difficulté en Europe.
C'est paradoxal mais au plus ils offrent (ftth,5G) au moins ils gagnent car les services qu'ils proposent sont exposés à une concurrence des petits spécialisés (mvno, voip pabx) et des gafams (cloud,teams, whatsapp,...). A quoi s'ajoute la généralisation de l'illimité et de l'itinérance en UE.
L'Etat est aussi complètement idiot d'avoir laissé entrer DIGI: qui d'autre au monde mettrait sciemment une de ses sociétés sur les genoux ?
Les prix vont baisser, peut-être, mais cela voudra aussi dire moins de rentrées tva, encore plus d'indiens et moins de belges, moins de dividende.
Cela n'empêche pas les directeurs de bien dormir, ils toucheront leur gros salaire quoi qu'il arrive.

Comment est-ce possible de dire pareille ineptie ... Tu es vraiment un bon troll :roll:
On paye beaucoup trop cher en Belgique depuis la nuit des temps ...
Et pendant ce temps, en France :
Freebox Pop

Internet (Fibre/ADSL) + Répéteur Wi-Fi + Téléphonie + TV (avec Player TV Free 4K )
29
€99/mois

pendant 1 an puis 39,99€/mois.
Sans engagement

Free prend en charge les frais de résiliation de votre ancien opérateur jusqu'à 100€

https://www.free.fr/freebox/freebox-pop/
https://www.free.fr/freebox/
Fibre jusqu’à icon arrow down 5 Gbit/s* icon arrow up 700 Mbit/s
*Partagés en descendant

230 chaines TV incluses

Wi-Fi
Je suis responsable de ce que je dis,
je ne suis pas responsable de ce que vous comprenez
Avatar de l’utilisateur
Vinnie
Acharné
Acharné
 
Message(s) : 4343
Inscription : 30 Juin 2007 20:56

Re: les erreurs de chatGPT ?

Message par Vinnie » 07 Fév 2024 01:10

https://www.jeuxvideo.com/news/1851596/ ... -actes.htm
Des chercheurs viennent de trouver un moyen d'empoisonner les IA pour les forcer à répondre de leurs actes

Des scientifiques sont parvenus à empoisonner des images pour que les intelligences artificielles ne puissent pas les utiliser. Ainsi, lorsque nous voyons une certaine image, l’IA voit tout autre chose.

Empoisonner au nom des droits d’auteurs

Une récente étude publiée sur arXiv a mis en lumière une avancée étonnante : au lieu de simplement exploiter les capacités des intelligences artificielles, des chercheurs ont réussi à élaborer une méthode novatrice pour les empoisonner.

La découverte repose sur l'utilisation ingénieuse de ce que les chercheurs appellent le "poison numérique". Plutôt que de perturber directement le fonctionnement des IA, cette méthode vise à altérer les données d'entraînement. Grâce à des algorithmes, les chercheurs ont pu injecter des données altérées, provoquant ainsi des situations où les IA prennent des décisions potentiellement négatives.

Cette approche soulève des questions fondamentales sur la fiabilité des systèmes d'IA et la nécessité de les doter de mécanismes de responsabilisation. En permettant aux intelligences artificielles d'être affectées par des influences extérieures, les chercheurs espèrent encourager une réflexion plus approfondie sur la conception et le déploiement de ces technologies.

Dans l’étude on découvre ainsi des images que l'œil humain perçoit comme normales, mais que l’IA interprète de façon bien différente. On voit ainsi un chien devenir un chat, une voiture devenir une vache ou une œuvre cubiste devenir un dessin.
Une histoire d’éthique avant tout

Les répercussions de cette découverte transcendent les domaines technique et scientifique pour englober des considérations éthiques. Si les IA peuvent être "empoisonnées" pour induire des comportements imprévus, cela soulève des inquiétudes quant à la sécurité de ces systèmes, en particulier dans des secteurs sensibles tels que la santé et la finance.

Cependant, les chercheurs mettent en avant les défis liés à la détection de telles attaques. Le poison numérique est conçu pour être subtil, défiant les méthodes traditionnelles de détection d'intrusion. Cette complexité souligne la nécessité urgente de développer des techniques de détection plus avancées pour protéger les systèmes d'IA des influences malveillantes.

Cette étude vient s'inscrire dans un contexte où les discussions sur l'éthique de l'IA gagnent en importance. Les gouvernements, les entreprises et la société civile doivent collaborer pour élaborer des lois claires régissant l'utilisation de l’IA. L'étude met en garde contre les dérives graves si des mesures adéquates ne sont pas prises.

On peut ainsi imaginer un modèle qui empoisonne les IA à des fins malveillantes. On pourrait ainsi avoir une super puissante qui utilise ce genre de procédé pour influencer et diriger une IA. Des garde-fous doivent ainsi être mis en place pour éviter toute dérive.
Je suis responsable de ce que je dis,
je ne suis pas responsable de ce que vous comprenez
Avatar de l’utilisateur
Vinnie
Acharné
Acharné
 
Message(s) : 4343
Inscription : 30 Juin 2007 20:56

Précédent

Retour vers Bavardage

Qui est en ligne ?

Utilisateur(s) parcourant ce forum : Aucun utilisateur inscrit