Ce soir le 12 Octobre, aux Capucins à Brest : meetup Data Science avec une intervention de Benjamin Fouquet sur l'usage du Deep Learning pour la recherche médicale. ⏰ 18h30 à la La French Tech Brest Bretagne Ouest https://lnkd.in/enYZ2Ta2
Post de Thomas Wentz
Plus de posts pertinents
-
✅✅✅ Aujourd'hui, le Parlement Européen a procédé au vote final de l'#AIAct, ouvrant la voie à une publication au journal officiel pour une entrée en force 20 jours après. 3 ans de discussions, de conflits, de compromis, pour un texte, certes imparfait mais indispensable pour permettre à nos sociétés de profiter de systèmes d'#IA plus sûrs et plus maitrisés. Les années qui viennent verront sans doute le règlement adapté, corrigé, mais il me semble important de souligner l'exploit d'être arrivé à un compromis général (voir les votes!) dans un contexte très difficile : 👉 Une technologie qui va très très vite (le texte initial ne faisait pas mention des modèles de fondation, briques essentielles des IA génératives 😲) 👉 Des intérêts souvent divergents, entre pays, entre partis politiques, entre lobbys, et même au sein de la société civile 🤼♂️ Bravo à l’#UE, et place maintenant à l’opérationnalisation des exigences réglementaires! Une sacrée tâche en perspective, mais des ressources utiles et pertinentes apparaissent tous les jours, il ne reste plus qu’à se retrousser les manches 💪💪💪
Even above our optimistic expectations! The AI Act is finally approved! #aiact
Identifiez-vous pour afficher ou ajouter un commentaire
-
#IA génératives et #Watermarking : un enjeu crucial pour distinguer les contenus synthétiques des contenus générés par des humains Le Watermarking de contenus générés par IA consiste à incorporer au sein de l’output d’une IA générative un « signal » unique qui fait office de signature numérique indiquant l’origine artificielle du contenu. Le service Recherche du Parlement Européen publie ici un rapport explorant les enjeux techniques et sociétaux liés au Watermarking des données synthétiques. Ce rapport rappelle qu’il n’existe pas de solution robuste à l’heure actuelle, malgré les multiples efforts de recherche sur le sujet. Or, il est crucial de trouver des réponses rapides à ce sujet, et ce pour plusieurs raisons : 👉 Le respect de la propriété intellectuelle et du droit d’auteur 📚 👉 La lutte contre la désinformation, cruciale pour l’élection US fin 2024 (entre autres) 🔴 🔵 👉 La création de futurs datasets d’apprentissage de haute qualité dans quelques années, quand le web sera majoritairement rempli de données synthétiques, et donc peu utiles, voir délétères, à la création de nouveaux modèles d’IA Distinguer contenu humain et contenu synthétique est donc crucial, et tous les efforts règlementaires et normatifs à travers le monde insistent sur ce point.
European Parliamentary Research Service: #GenAI and #Watermarking Generative artificial intelligence (AI) has the potential to transform industries and society by boosting innovation, empowering individuals and increasing productivity. One of the drawbacks of the adoption of this technology, however, is that it is becoming increasingly difficult to differentiate human-generated content from synthetic content generated by AI, potentially enabling illegal and harmful conduct. Policymakers around the globe are therefore pondering how to design and implement watermarking techniques to ensure a trustworthy AI environment. China has already taken steps to ban AI-generated images without watermarks. The US administration has been tasked with developing effective labelling and content provenance mechanisms so that end users are able to determine when content is generated using AI and when it is not. The G7 has asked companies to develop and deploy reliable content authentication and provenance mechanisms, such as watermarking, to enable users to identify AI-generated content. The EU's new AI act, provisionally agreed in December 2023, places a number of obligations on providers and users of AI systems to enable the detection and tracing of AI-generated content. Implementation of these obligations will likely require use of watermarking techniques. Current state-of-the-art AI watermarking techniques display strong technical limitations and drawbacks, however, in terms of technical implementation, accuracy and robustness. Generative AI developers and policymakers now face a number of issues, including how to ensure the development of robust watermarking tools and how to foster watermarking standardisation and implementation rules.
Identifiez-vous pour afficher ou ajouter un commentaire
-
📣 AI Act : Accord historique pour l’UE 📣 Ce samedi matin, le trilogue (de la dernière chance ?) a permis de faire émerger un accord autour de la réglementation des systèmes d’Intelligence Artificielle. Une première 🌍 mondiale🌍 qui a vocation à influencer la régulation des IA au niveau mondial. On peut souligner l’exploit qu’on accompli les négociateurs, dans un contexte de forte tensions (21 sujets clivants étaient recensés) mais aussi d’une forte pression politique pour trouver un accord 💪. Au final, 37 heures (!) de négociations en 2 sessions ont abouti à un accord politique qui devra être maintenant finalisé par une multitude de réunions techniques avant la promulgation du texte. ⚡ Les désaccords étaient à la hauteur des enjeux liés à l’IA. Le principal enjeu étant de protéger les droits fondamentaux sans brider la compétitivité du secteur européen de l’IA, ce qui revient à résoudre la quadrature du cercle. Le résultat, à chaud, semble équilibré, malgré l’ajout de nouvelles exemptions pour l’usage de la surveillance biométrique par les forces de l’ordre. ⚡De même, les modèles de fondation, futures pierres angulaires de nombreux systèmes d’IA, sont restés dans le scope de l’AI Act, avec une régulation corrélée à la complexité du modèle des critères comme le nombre d’utilisateurs pros et le nombre de paramètres. 📜 Il faudra attendre le texte final pour mieux comprendre la portée réelle du texte : son pouvoir régulateur est étroitement soumis aux choix qui seront faits lors des prochaines réunions techniques. Alors l’AI Act, tigre de papier ou pierre angulaire du monde de demain 🦁 🐱 ? La réponse dans les semaines à venir ! https://lnkd.in/eiHmUy4b
Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI | News | European Parliament
europarl.europa.eu
Identifiez-vous pour afficher ou ajouter un commentaire
-
Today is D-day for the #AI Act. There is a lot of pressure to reach an agreement, and the stakes are very high. I have little doubt some sort of deal will be found, but there are several pitfalls to watch out for and constraints on all sides. An overview of what you need to know. The list of open issues is still mind-boggling, with as many as 23 points. Even if an agreement is reached on all of them, it won't be the end of the story. Intense technical work will follow. Not only to fine-tune the text but also to settle political questions. In other words, the negotiations will be far from over despite what you will read in celebratory tweets. The Spanish presidency is determined to score a victory and close the deal. For State Secretary Carme Artigas, it's "now or never". She might be right since the Belgian presidency would hardly have the time to tie up all the loose ends. Those who call for more trilogues intentionally want to derail the process. The presidency will have to walk a fine line, especially on foundation models. Expect a lot of breakouts during the trilogue to check in with France and Germany. France has been the most rigid country on foundation models. However, at the last COREPER, they said they would not stand in the way of a deal. In fact, they might not have the numbers to do so. And Paris also has much at stake on the national security/law enforcement side. Germany is, as usual, a question mark. There are divisions between ministries, coalition members and even inside the same parties. My personal view is that, in the worst-case scenario, Berlin might abstain. Italy is the most flexible of the sceptical trio. Alessio Butti won the internal battle to control the file against Adolfo Urso, who was more of a hardliner. Rome has no direct stake in foundation models, so its support could be bought with concessions on other files. The European Commission is also determined to reach a deal. To the point that Commissioner Thierry Breton went rather unprecedently against the position of its own country. The perspective of being the world's regulator of foundation models is, of course, very appealing. In the European Parliament, the co-rapporteurs will have a difficult job managing all political groups. Yesterday's shadow meeting didn't even finish going through all points. As it was impossible to reach fall-back positions on everything, expect a lot of on-the-spot negotiations. While MEPs agree on foundation models, chapters like law enforcement are more divisive. Even the open-source exemption might be a red line for some. Most political groups have given up much, and their representatives might have difficulty selling the compromise internally. However, as often happens with such key legislation, nobody wants to be pointed out as the showstopper. Especially with the European elections coming up, MEPs, Commissioners and governments have strong incentives to show off the AI law to their respective constituencies.
Identifiez-vous pour afficher ou ajouter un commentaire