Modérateurs : Diamond, watch, Barbapapa, Casimir
Vinnie a écrit :J'aimerais voir ce que donnerait un mini canon à impulsions électromagnétiques sur un cerveau augmenté
ccol a écrit :Vinnie a écrit :J'aimerais voir ce que donnerait un mini canon à impulsions électromagnétiques sur un cerveau augmenté
Probablement le même genre de choses que sur un coeur équipé d'implants cardiovasculaires ...
Vinnie a écrit :Cela est-il vraiment possible ?
Créer des applis sans coder : fantasme ou réalité ? Amazon annonce la fermeture de sa plateforme no code dénommée Honeycode,
Censée répondre à une pénurie annoncée de développeurs traditionnels
...
ChatGPT a réussi à l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires US. Un internaute a proposé une compilation des réponses proposées par le chatbot après avoir souligné que l’intelligence artificielle a pris 32 points sur les 36 possibles. ChatGPT a en sus réussi l’examen de codage Google pour un ingénieur de niveau 3 avec un salaire de 183 000 $. Ce sont des raisons pour lesquelles certains observateurs sont d’avis que les travailleurs de la filière du développement informatique sont menacés par l’intelligence artificielle. Emad Mostaque, PDG de Stability AI en fait partie et prédit qu’il n’y aura plus de programmeurs dans 5 ans.
« C’est un fait : 41 % de tout le code informatique sur GitHub est généré par une intelligence artificielle. ChatGPT est déjà capable de passer un examen de codage pour ingénieur de niveau 3 », souligne Emad Mostaque avant d’ajouter « qu’il n’y aura pas de programmeurs humains dans 5 ans. »
" There will be NO programmers in 5 years."
...
35b a écrit :La plus grande menace ce sont les indiens. Même chez proximus, propriété à 53% de l'Etat, c'est tout à l'indien. C'est une honte, c'est moins cher mais on ne finance pas la sécu ni les pensions. Ce monde creuse son trou.
Vinnie a écrit :Et pendant ce temps, proximus continue d'augmenter ses tarifs minimum une fois par an
35b a écrit :Vinnie a écrit :Et pendant ce temps, proximus continue d'augmenter ses tarifs minimum une fois par an
Cela ne compense même pas l'inflation.
C'est tout le secteur qui est en difficulté en Europe.
C'est paradoxal mais au plus ils offrent (ftth,5G) au moins ils gagnent car les services qu'ils proposent sont exposés à une concurrence des petits spécialisés (mvno, voip pabx) et des gafams (cloud,teams, whatsapp,...). A quoi s'ajoute la généralisation de l'illimité et de l'itinérance en UE.
L'Etat est aussi complètement idiot d'avoir laissé entrer DIGI: qui d'autre au monde mettrait sciemment une de ses sociétés sur les genoux ?
Les prix vont baisser, peut-être, mais cela voudra aussi dire moins de rentrées tva, encore plus d'indiens et moins de belges, moins de dividende.
Cela n'empêche pas les directeurs de bien dormir, ils toucheront leur gros salaire quoi qu'il arrive.
Freebox Pop
Internet (Fibre/ADSL) + Répéteur Wi-Fi + Téléphonie + TV (avec Player TV Free 4K )
29
€99/mois
pendant 1 an puis 39,99€/mois.
Sans engagement
Free prend en charge les frais de résiliation de votre ancien opérateur jusqu'à 100€
Fibre jusqu’à icon arrow down 5 Gbit/s* icon arrow up 700 Mbit/s
*Partagés en descendant
230 chaines TV incluses
Wi-Fi
Des chercheurs viennent de trouver un moyen d'empoisonner les IA pour les forcer à répondre de leurs actes
Des scientifiques sont parvenus à empoisonner des images pour que les intelligences artificielles ne puissent pas les utiliser. Ainsi, lorsque nous voyons une certaine image, l’IA voit tout autre chose.
Empoisonner au nom des droits d’auteurs
Une récente étude publiée sur arXiv a mis en lumière une avancée étonnante : au lieu de simplement exploiter les capacités des intelligences artificielles, des chercheurs ont réussi à élaborer une méthode novatrice pour les empoisonner.
La découverte repose sur l'utilisation ingénieuse de ce que les chercheurs appellent le "poison numérique". Plutôt que de perturber directement le fonctionnement des IA, cette méthode vise à altérer les données d'entraînement. Grâce à des algorithmes, les chercheurs ont pu injecter des données altérées, provoquant ainsi des situations où les IA prennent des décisions potentiellement négatives.
Cette approche soulève des questions fondamentales sur la fiabilité des systèmes d'IA et la nécessité de les doter de mécanismes de responsabilisation. En permettant aux intelligences artificielles d'être affectées par des influences extérieures, les chercheurs espèrent encourager une réflexion plus approfondie sur la conception et le déploiement de ces technologies.
Dans l’étude on découvre ainsi des images que l'œil humain perçoit comme normales, mais que l’IA interprète de façon bien différente. On voit ainsi un chien devenir un chat, une voiture devenir une vache ou une œuvre cubiste devenir un dessin.
Une histoire d’éthique avant tout
Les répercussions de cette découverte transcendent les domaines technique et scientifique pour englober des considérations éthiques. Si les IA peuvent être "empoisonnées" pour induire des comportements imprévus, cela soulève des inquiétudes quant à la sécurité de ces systèmes, en particulier dans des secteurs sensibles tels que la santé et la finance.
Cependant, les chercheurs mettent en avant les défis liés à la détection de telles attaques. Le poison numérique est conçu pour être subtil, défiant les méthodes traditionnelles de détection d'intrusion. Cette complexité souligne la nécessité urgente de développer des techniques de détection plus avancées pour protéger les systèmes d'IA des influences malveillantes.
Cette étude vient s'inscrire dans un contexte où les discussions sur l'éthique de l'IA gagnent en importance. Les gouvernements, les entreprises et la société civile doivent collaborer pour élaborer des lois claires régissant l'utilisation de l’IA. L'étude met en garde contre les dérives graves si des mesures adéquates ne sont pas prises.
On peut ainsi imaginer un modèle qui empoisonne les IA à des fins malveillantes. On pourrait ainsi avoir une super puissante qui utilise ce genre de procédé pour influencer et diriger une IA. Des garde-fous doivent ainsi être mis en place pour éviter toute dérive.
Utilisateur(s) parcourant ce forum : freddo