Cyberveillecurated by Decio
Nuage de tags
Mur d'images
Quotidien
Flux RSS
  • Flux RSS
  • Daily Feed
  • Weekly Feed
  • Monthly Feed
Filtres

Liens par page

  • 20 links
  • 50 links
  • 100 links

Filtres

Untagged links
12 résultats taggé IA  ✕
Schneier warns that AI loses integrity due to corporate bias https://www.theregister.com/2025/05/06/schneier_ai_models/
10/05/2025 22:42:42
QRCode
archive.org
thumbnail

RSAC: Can we turn to govt, academic models instead?
Corporate AI models are already skewed to serve their makers' interests, and unless governments and academia step up to build transparent alternatives, the tech risks becoming just another tool for commercial manipulation.

That's according to cryptography and privacy guru Bruce Schneier, who spoke to The Register last week following a keynote speech at the RSA Conference in San Francisco.

"I worry that it'll be like search engines, which you use as if they are neutral third parties but are actually trying to manipulate you. They try to kind of get you to visit the websites of the advertisers," he told us. "It's integrity that we really need to think about, integrity as a security property and how it works with AI."

During his RSA keynote, Schneier asked: "Did your chatbot recommend a particular airline or hotel because it's the best deal for you, or because the AI company got a kickback from those companies?"

To deal with this quandary, Schneier proposes that governments should start taking a more hands-on stance in regulating AI, forcing model developers to be more open about the information they receive, and how the decisions models make are conceived.

He praised the EU AI Act, noting that it provides a mechanism to adapt the law as technology evolves, though he acknowledged there are teething problems. The legislation, which entered into force in August 2024, introduces phased requirements based on the risk level of AI systems. Companies deploying high-risk AI must maintain technical documentation, conduct risk assessments, and ensure transparency around how their models are built and how decisions are made.

Because the EU is the world's largest trading bloc, the law is expected to have a significant impact on any company wanting to do business there, he opined. This could push other regions toward similar regulation, though he added that in the US, meaningful legislative movement remains unlikely under the current administration.

theregister EN 2025 Schneier IA corporate bias corporate-bias warning
La Suisse signe la Convention du Conseil de l’Europe sur l’intelligence artificielle https://swissprivacy.law/344/
08/04/2025 07:33:01
QRCode
archive.org

Le conseiller fédéral Albert Rösti signera aujourd’hui à Strasbourg la Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle. Par cet acte, la Suisse rejoint les États signataires d’un premier instrument juridiquement contraignant au niveau international visant à encadrer le développement et l’utilisation de l’IA dans le respect des droits fondamentaux

swissprivacy.law FR CH 2025 Convention Conseil Europe IA intelligence artificielle Suisse acte
Google Online Security Blog: Google announces Sec-Gemini v1, a new experimental cybersecurity model https://security.googleblog.com/2025/04/google-launches-sec-gemini-v1-new.html?m=1
07/04/2025 06:43:07
QRCode
archive.org
thumbnail

Today, we’re announcing Sec-Gemini v1, a new experimental AI model focused on advancing cybersecurity AI frontiers.

As outlined a year ago, defenders face the daunting task of securing against all cyber threats, while attackers need to successfully find and exploit only a single vulnerability. This fundamental asymmetry has made securing systems extremely difficult, time consuming and error prone. AI-powered cybersecurity workflows have the potential to help shift the balance back to the defenders by force multiplying cybersecurity professionals like never before.

security.googleblog EN 2025 Sec-Gemini IA announce experimental cybersecurity model
EPFL: des failles de sécurité dans les modèles d'IA https://www.swissinfo.ch/fre/epfl%3a-des-failles-de-s%c3%a9curit%c3%a9-dans-les-mod%c3%a8les-d%27ia/88615014
23/12/2024 23:23:20
QRCode
archive.org
thumbnail

Les modèles d'intelligence artificielle (IA) peuvent être manipulés malgré les mesures de protection existantes. Avec des attaques ciblées, des scientifiques lausannois ont pu amener ces systèmes à générer des contenus dangereux ou éthiquement douteux.

swissinfo FR 2024 EPFL IA chatgpt Jailbreak failles LLM vulnerabilités Manipulation
Quarante pourcents de la population se tourne vers l'IA https://www.swissinfo.ch/fre/quarante-pourcents-de-la-population-se-tourne-vers-l%27ia/87498532
06/09/2024 11:42:02
QRCode
archive.org
thumbnail

Environ 40% de la population suisse se sert d'outils d'intelligence artificielle tels que ChatGPT. Chez les jeunes, leur utilisation est très répandue, alors que les plus âgés y ont moins recours. La TV et l'audio, en revanche, sont appréciés de toutes les générations.

swissinfo ChatGPT Suisse IA FR 2024 statistiques
Loi sur l’IA https://digital-strategy.ec.europa.eu/fr/policies/regulatory-framework-ai
17/03/2024 16:06:58
QRCode
archive.org

La loi sur l’IA est le tout premier cadre juridique en matière d’IA, qui traite des risques liés à l’IA et positionne l’Europe pour qu’elle joue un rôle de premier plan à l’échelle mondiale.

digital-strategy.ec.europa.eu FR 2024 IA loi legal juridique Europe EU regulatory
Microsoft publie son outil interne de test de sécu d'IA générative https://www.zdnet.fr/actualites/microsoft-publie-son-outil-interne-de-test-de-secu-d-ia-generative-39964464.htm
17/03/2024 14:46:49
QRCode
archive.org
thumbnail

PyRIT peut générer des milliers de messages malveillants pour tester un modèle d'IA générative, et même évaluer sa réponse.

ZDNet 2024 FR outil PyRIT Microsoft test IA
Chatbots qui «hallucinent» et trompent les clients: quelle responsabilité légale? | ICTjournal https://www.ictjournal.ch/articles/2024-02-27/chatbots-qui-hallucinent-et-trompent-les-clients-quelle-responsabilite-legale
27/02/2024 18:13:40
QRCode
archive.org
thumbnail

Comme l’a illustré un récent verdict contre Air Canada, les entreprises peuvent être jugées responsables des inform

ictjournal FR 2024 chatbots legal hallucinations responsabilité légale IA
Google launches AI Cyber Defense Initiative to improve security infrastructure https://blog.google/technology/safety-security/google-ai-cyber-defense-initiative/
17/02/2024 10:39:19
QRCode
archive.org
thumbnail

Today, many seasoned security professionals will tell you they’ve been fighting a constant battle against cybercriminals and state-sponsored attackers. They will also tell you that any clear-eyed assessment shows that most of the patches, preventative measures and public awareness campaigns can only succeed at mitigating yesterday’s threats — not the threats waiting in the wings.

That could be changing. As the world focuses on the potential of AI — and governments and industry work on a regulatory approach to ensure AI is safe and secure — we believe that AI represents an inflection point for digital security. We’re not alone. More than 40% of people view better security as a top application for AI — and it’s a topic that will be front and center at the Munich Security Conference this weekend.

blog.google EN 2024 google Cyber-Defense initiative IA Defender-Dilemma
L’AI Act européen adopté après des négociations marathon | ICTjournal https://www.ictjournal.ch/articles/2023-12-11/lai-act-europeen-adopte-apres-des-negociations-marathon
11/12/2023 18:57:30
QRCode
archive.org
thumbnail

Les négociateurs du Parlement et du Conseil européens sont parvenus à un accord concernant la réglementation de l'intelligence artificielle. L'approche basée sur les risques, à la base du projet, est confirmée. Des compromis sont censés garantir la protection contre les risques liés à l’IA, tout en encourageant l’innovation.

ictjournal FR 2023 EU IA réglementation act AI
La loi actuelle sur la protection des données est directement applicable à l’IA https://www.edoeb.admin.ch/edoeb/fr/home/kurzmeldungen/20231109_ki_dsg.html
14/11/2023 15:43:50
QRCode
archive.org

En Suisse aussi, l’intelligence artificielle (IA) investit de plus en plus la vie économique et sociale de la population. Dans ce contexte, le PFPDT rappelle que la loi sur la protection des données en vigueur depuis le 1er septembre 2023 est directement applicable aux traitements de données basés sur l’IA.

admin.ch FR CH Suisse IA intelligence artificielle PFPDT 2023 loi
La nLPD est directement applicable à l’intelligence artificielle https://www.ictjournal.ch/news/2023-11-14/la-nlpd-est-directement-applicable-a-lintelligence-artificielle
14/11/2023 15:38:03
QRCode
archive.org
thumbnail

Selon le Préposé fédéral à la protection des données (PFPDT), la nouvelle loi sur la protection des données en vigueur depuis septembre s'applique également aux outils d'intelligence artificielle. Le traitement des données des utilisateurs doit être signalé, même s'il est effectué par une IA.

ictjournal FR CH 2023 nLPD PFPDT intelligence artificielle ia
4560 links
Shaarli - The personal, minimalist, super-fast, database free, bookmarking service par la communauté Shaarli - Theme by kalvn - Curated by Decio