Was braucht es für eine zuverlässige Marktüberwachung für KI-Anwendungen?🔎 „Um sichere KI-Anwendungen zu ermöglichen und gleichzeitig Innovationen zu fördern, braucht es klare und einheitliche Konformitätskriterien und Prüfanforderungen sowie transparente Prüfverfahren und Zertifizierungen. Der europäische AI Act muss jetzt zügig umgesetzt werden, damit sichere und vertrauenswürdige #KI zu einem echten Innovationsmotor für Europa wird“, sagte unsere CEO, Franziska Weindauer in Ihrem Vortrag auf der Deutschen Marktüberwachungskonferenz 2024 veranstaltet vom Bundesministerium für Wirtschaft und Klimaschutz und der Bundesnetzagentur. Franziska sprach darüber, wie die KI-Verordnung in die Praxis umgesetzt werden kann und stellte dabei die Arbeit des TÜV AI.Lab vor. Fazit: Damit der #AIAct zur Realität wird, müssen zunächst klare Kriterien entwickelt werden, um Risiken messbar zu machen. Diese sollten ermöglichen, die allgemeinen Risikoklassen in konkrete Prüfanforderungen und Konformitätskriterien zu übersetzen. Auf dieser Grundlage sind innovative Prüfverfahren für KI zu entwickeln und zu erproben, um Audits und Zertifizierungen durchführen zu können. So haben Unternehmen Klarheit über die Anforderungen und können KI produktiv und sicher anwenden. Vielen Dank für die Einladung und die tolle Organisation! #TÜVAILab #TrustworthyAI
TÜV AI.Lab
Denkfabrik
Berlin, BE 1.995 Follower:innen
Translating the principles of assessing and certifying AI into practice
Info
Currently, the regulatory basis for safe and trustworthy AI is being established worldwide. The AI Lab will accompany the implementation of these regulatory requirements into practice and support TÜV companies in the development of innovative AI applications in safety-critical areas. These include AI systems with a high risk, for example in vehicles, in medicine or in robotics. In the TÜV AI.Lab, AI experts work on developing concrete test scenarios and methods, participate in the creation of new norms and standards, as well as on sector-specific use cases. The AI.Lab is working hard on making the AI ecosystem ready for regulatory and societal requirements and making safe and sustainable AI become Europe’s USP.
- Website
-
https://www.tuev-lab.ai
Externer Link zu TÜV AI.Lab
- Branche
- Denkfabrik
- Größe
- 11–50 Beschäftigte
- Hauptsitz
- Berlin, BE
- Art
- Privatunternehmen
- Gegründet
- 2023
- Spezialgebiete
- Trustworthy AI, AI-Quality, AI-Certification, EU AI Act, KI-Verordnung, KI-Prüfkriterien und KI-Prüfverfahren
Orte
-
Primär
Max-Urich Straße 3
Berlin, BE 13355, DE
Beschäftigte von TÜV AI.Lab
Updates
-
Wie können wir den Industriestandort #Berlin stärken? 💪 „Der zentrale Schlüssel liegt in der digitalen Transformation; dazu gehört im Jahr 2024 auch die Adaption von #KI – und zwar vertrauenswürdig und sicher”, betonte unsere CEO, Franziska Weindauer bei der diesjährigen Masterplan-Industriestadt-Berlin-Konferenz von der Senatsverwaltung für Wirtschaft, Energie und Betriebe und Berlin Partner für Wirtschaft und Technologie GmbH. „Die TÜV-Unternehmen prüfen ja schon seit langer Zeit Medizinprodukte und Produktionsanlagen. Jetzt ist die Frage: Wie prüfen wir KI, damit sie den Anforderungen an Qualität und Sicherheit entspricht? Wie prüfen wir die Anforderungen des #AIAct, insbesondere mit Blick auf Hochrisikosysteme? Dafür haben gleich fünf TÜV-Unternehmen gemeinsam das AI.Lab gegründet, das Prüfkriterien und Prüfmethoden erforscht. Gelingt uns das, kann Trustworthy AI 'Made in Germany', die durch Sicherheit und Qualität überzeugt, ein echter Wettbewerbsvorteil werden, auch für den wachsenden KI-Hotspot Berlin.“ Vielen Dank für die spannende Diskussion und für das gemeinsame Interesse, den Standort Berlin zu stärken, an Dr. Ingo Rueckert (Wilhelm Dreusicke GmbH & Co. KG), Dr. Sandra Saeed (Stiftung Arbeit und Umwelt der IGBCE) und Robert Kilian (KI Bundesverband)! Ein herzliches Dankeschön für die Organisation an die Senatsverwaltung für Wirtschaft, Energie und Betriebe, Berlin Partner für Wirtschaft und Technologie GmbH und an unseren Gastgeber, den Merantix AI Campus. #TÜVAILab #TrustworthyAI #Berlin
-
🇬🇧 Our AI Act Risk Navigator is now available in English! 🇪🇺 ⚖️ Classify your Risk according to the EU AI Act ⚖️ With the 𝐀𝐈 𝐀𝐜𝐭 𝐑𝐢𝐬𝐤 𝐍𝐚𝐯𝐢𝐠𝐚𝐭𝐨𝐫, TÜV AI.Lab has published a free and low-threshold online tool for risk classification of AI systems and models. Entrepreneurs, managers, developers and specialists can use it to understand whether and how they are affected by the EU #AIAct. This will result in greater clarity and certainty in the implementation of the AI Act. What the 𝐀𝐈 𝐀𝐜𝐭 𝐑𝐢𝐬𝐤 𝐍𝐚𝐯𝐢𝐠𝐚𝐭𝐨𝐫 offers: ✅ User-friendly multiple-choice questions ✅ High legal precision ✅ Accessibility for user groups without extensive legal expertise ✅ References to the underlying legal text and further detailed information From now on… 🆕 Also available in English! 🆕 Improved PDF generation! – In general, this function allows you to document the results of the classification – 👉 Find the link in the comments! Know someone who could benefit from this tool? Feel free to tag them! 💬 We continue to work on improving the AI Act Risk Navigator - your feedback is very welcome! #TÜVAILab #TrustworthyAI #AIQuality #AICertification #TÜVRiskNavigator #AIActRiskNavigator __ 🇬🇧 Der AI Act Risk Navigator ist jetzt auch auf Englisch verfügbar! 🇪🇺 ⚖️ Classify your Risk according to the EU AI Act ⚖️ Mit dem 𝐀𝐈 𝐀𝐜𝐭 𝐑𝐢𝐬𝐤 𝐍𝐚𝐯𝐢𝐠𝐚𝐭𝐨𝐫 hat das TÜV AI.Lab ein kostenloses und niedrigschwelliges Online-Tool zur Risikoklassifizierung von KI-Systemen und -Modellen veröffentlicht. Unternehmer:innen, Manager:innen, Entwickler:innen und Fachverantwortliche können so verstehen, ob und wie sie vom #AIAct betroffen sind. Damit erreichen wir mehr Klarheit und Sicherheit bei der Umsetzung des AI Act. Das bietet der 𝐀𝐈 𝐀𝐜𝐭 𝐑𝐢𝐬𝐤 𝐍𝐚𝐯𝐢𝐠𝐚𝐭𝐨𝐫: ✅ Anwenderfreundliche Multiple-Choice-Fragen ✅ Hohe juristische Präzision ✅ Zugänglichkeit für Nutzergruppen ohne ausgeprägte juristische Fachkenntnisse ✅ Verweise auf den zugrundeliegenden Gesetzestext und weitere Detailinformationen Ab sofort… 🆕 Auch verfügbar auf Englisch! 🆕 Verbesserte PDF-Generierung! – generell ermöglicht es diese Funktion, die Ergebnisse der Klassifizierung zu dokumentieren – 👉 Der Link findet sich in den Kommentaren! Taggt gerne dort Menschen, die von diesem Tool profitieren könnten. 💬 Der AI Act Risk Navigator wird kontinuierlich weiterentwickelt. Feedback ist ausdrücklich erwünscht!
-
📋 Wie wichtig sind Normen für vertrauenswürdige #KI? 📋 Die Antwort: unverzichtbar! 📐 Gestern sprach Marc Hauer, Senior AI Solution Architect im TÜV AI.Lab, auf der DigiKon der Bundesnetzagentur, dieses Jahr unter dem Motto „Daten nutzen – KI fördern“, über die unverzichtbare Rolle von Normen für vertrauenswürdige #KünstlicheIntelligenz. Sein zentraler Punkt: Nur einheitliche Normen, Prüf- und Zertifizierungsprozesse ebnen den Weg für vertrauenswürdige KI-Systeme. Indem sie die gesetzlichen Anforderungen konkretisieren, schaffen sie nicht nur Planungs- und Rechtssicherheit für Unternehmen, sondern damit auch eine solide Grundlage für Innovationen. Dabei stellte Marc dem Publikum auch unsere konkrete Hilfestellung für Unternehmer:innen, Manager:innen und Entwickler:innen vor, die sich fragen, ob und wie sie vom AI Act betroffen sind: den vom TÜV AI.Lab entwickelten 𝗔𝗜 𝗔𝗰𝘁 𝗥𝗶𝘀𝗸 𝗡𝗮𝘃𝗶𝗴𝗮𝘁𝗼𝗿. Das kostenlose Online-Tool hilft dabei, KI-Systeme gemäß den Risikoklassen des EU #AIAct einzuordnen – mittels Multiple-Choice-Fragen, rechtlich präzise und mit ergänzenden Erläuterungen. Somit gewinnen Unternehmen Klarheit und sind in der Lage, sich rechtzeitig auf zukünftige Anforderungen vorzubereiten. 👉 Der Link zum AI Act Risk Navigator findet sich in den Kommentaren Wir danken der Bundesnetzagentur für die exzellente Organisation der DigiKon und freuen uns, Teil dieses wichtigen Austauschs zwischen Wirtschaft, Wissenschaft, Verwaltung und Zivilgesellschaft gewesen zu sein! #TÜVAILab #Normung #TrustworthyAI #AIQuality
-
⚖️ 𝗪𝗲𝗹𝗰𝗵𝗲 𝗖𝗵𝗮𝗻𝗰𝗲𝗻, 𝘄𝗲𝗹𝗰𝗵𝗲 𝗥𝗶𝘀𝗶𝗸𝗲𝗻 𝗯𝗶𝗲𝘁𝗲𝘁 𝗱𝗲𝗿 𝗘𝗶𝗻𝘀𝗮𝘁𝘇 𝘃𝗼𝗻 𝗞𝗜 𝗶𝗻 𝗱𝗲𝗿 𝗝𝘂𝘀𝘁𝗶𝘇? „Justiz und Rechtspraxis sind wie kaum ein anderer Bereich auf das Vertrauen der Bürger:innen angewiesen. Diese Sensibilität erfordert, dass wir eindeutig nachweisen können, dass wir Vertrauenswürdigkeit und Sicherheit für hier eingesetzte #KünstlicheIntelligenz überprüft und bestehende Risiken mitigiert haben”, sagte unsere CEO, Franziska Weindauer, bei der Podiumsdiskussion zum Thema „Legal Tech und #KI in Justiz und Rechtspraxis: Chancen, Herausforderungen, Grenzen”, ausgerichtet vom Bayrischen Staatsministerium der Justiz. 📃 Justiz und Rechtswesen fußen in besonderem Maße auf Sprache und Textdaten und können somit in erheblichem Maße von KI profitieren: Der Einsatz von KI-Systemen kann erhebliche Effizienzgewinne freisetzen und insbesondere (Massen-)Verfahren maßgeblich beschleunigen. 🕵️ Der EU #AIAct stuft derzeit verschiedene KI-Systeme, die Anwendung in der Rechtspraxis finden, als Hochrisikosysteme gemäß Art. 6 in Verbindung mit Anhang III der KI-VO ein – sofern sie nicht lediglich entscheidungsvorbereitende Assistenzfunktionen übernehmen. Eine unabhängige Drittprüfung durch Notifizierte Stellen ist in den genannten Fällen freiwillig, kann aber sinnvoll sein, um das Vertrauen der Bürgerinnen und Bürger in die KI-Technologie und in die Institutionen zu stärken. 💡 Vielen Dank für die spannende Diskussion Alisha Andert, LL.M., Vorstandsvorsitzende, Legal Tech Verband Deutschland; Alexander Britz, Leiter Geschäftsbereich Public Sector, Microsoft Germany; Prof. Dr. Philipp Hacker, Europa-Universität Viadrina Frankfurt (Oder) und Prof. Dr. Reinhard Heckel, Professor für Maschinelles Lernen am Department of Computer Engineering, Technische Universität München! Unser herzlicher Dank für die Einladung gilt dem Bayerischen Staatsminister der Justiz Georg Eisenreich, MdL, und Dr. Christina-Maria Leeb, Referentin für Legal Tech und KI! 🙏 📸 Christian Kruppa #TÜVAILab #TrustworthyAI #LegalAI #AIQuality
-
🏆 Alexander von Janowski gehört zu den 𝗧𝗼𝗽 𝟰𝟬 𝘂𝗻𝗱𝗲𝗿 𝟰𝟬 🏆 Wir gratulieren unserem AI Certification Manager, Alexander, zur Auszeichnung als einer der diesjährigen “Top 40 under 40” durch das Capital Magazin! 🎉 Alexander wurde in der Kategorie Gesellschaft als Co-Founder/Co-Director des Responsible Technology Hub für die zukunftsweisende und gemeinwohlorientierte Initiative geehrt, Technologie verantwortlich und vertrauenswürdig zu gestalten. Das Responsible Technology Hub setzt sich für einen generationenübergreifenden Austausch ein, der jungen Menschen Gehör verschafft, und verbindet generations- und branchenübergreifend “Responsible Tech Enthusiasts” die sich dafür einsetzen, Technologien von Morgen verantwortungsvoller zu gestalten. 💡 Jedes Jahr kürt #Capital 40 herausragende Talente aus Politik und Gesellschaft, aus dem Management großer Unternehmen und unter den Gründer:innen und Familienunternehmer:innen des Landes. Wir freuen uns sehr, mit Alexander in diesem Jahr vertreten zu sein! Ein herzliches Dankeschön an das Team des Capital Magazins für diese Auszeichnung! 🚀 Und natürlich: Herzlichen Glückwunsch an alle weiteren Gewinner:innen! 👏 Die diesjährigen Ausgezeichneten in der Kategorie Gesellschaft: Carolin Albrecht, Josephine Ballon, Manuela Barišić, Geraldine Dany-Knedlik, Nick de la Forge, Jonas Deichmann, Jens Foerderer, Niklas Garnadt, Fabiola H. Gerpott, Florian Kollewijn, Lisa-Maria Kretschmer, Gorgi Krlev, Thilo Kroeger, Prof. Dr. Lorenz Narku Laing, Philipp Strack, Fabienne Marco, Natalya Nepomnyashcha, Thu Nguyen, Dr. Maximilian Oehl, Daniel Privitera, Alexandra Prokopenko, Simon Reif, Marcel S., Sebastian Sippel, Dr. Alexander Steinforth, Tuğba Tekkal, Gülsah Wilke, Alexandra Wudel, Prof. Dr. Ali Aslan Gümüsay, Hanna Veiler, Zeynep Akata, Svenja Brunckhorst, Emma Felsenstein #top40under40 #RTH #TrustworthyAI
-
Heute auf dem #AIForum: 𝗗𝗲𝗲𝗽 𝗗𝗶𝘃𝗲 𝗶𝗻 𝗱𝗶𝗲 𝗧Ü𝗩 𝗔𝗜 𝗔𝘀𝘀𝗲𝘀𝘀𝗺𝗲𝗻𝘁 𝗠𝗮𝘁𝗿𝗶𝘅 🚀 Prüfressourcen müssen spezifisch genug sein, um eine konkrete Prüfung zu ermöglichen, aber so allgemein gehalten wie möglich, um Skalierung und Synergien zwischen KI-Technologien und Sektoren zu ermöglichen. Die Lösung: Eine neue Systematik für das gesamte Feld der KI-Prüfung, die in der faktisch durchführbaren Prüfung ihre Konkretisierung findet. Voilà – unsere TÜV AI.Lab #AIAssessment Matrix in wenigen Worten erklärt! Beim AI Forum heute tauschen sich KI-Wissenschaftler:innen zu aktuellen Forschungsfragen rund um KI-Qualität und -Prüfung aus. Uns war es daher eine Ehre, nach der gestrigen Premiere bei der #TÜVAICon heute dem technischen Fachpublikum unter dem Titel “𝗧𝗲𝗰𝗵𝗻𝗶𝗰𝗮𝗹 𝗦𝘁𝗮𝘁𝗲 𝗼𝗳 𝗣𝗹𝗮𝘆 - 𝗔𝘂𝗱𝗶𝘁𝗶𝗻𝗴 𝗧𝗿𝘂𝘀𝘁𝘄𝗼𝗿𝘁𝗵𝘆 𝗔𝗜” unsere TÜV AI Assessment Matrix im Detail vorzustellen. Dabei legte der Vortrag unserer Experten, Senior Advisor AI Ethics and Quality Dr. Christoph Poetsch sowie AI Solution Architect Matthias König, einen besonderen Fokus auf das Thema #Robustness: „Für den sicheren Einsatz von KI-Systemen ist zentral, zu verstehen, wie sie mit Veränderungen umgehen. Robustheit ist daher ein zentraler Aspekt von vertrauenswürdiger KI, denn die Überprüfung von Robustheitsanforderungen gewährleistet den verlässlichen Einsatz von KI-Technologien auch unter dynamischen Bedingungen“, verdeutlichte Matthias. Herzlichen Dank an den TÜV-Verband, das Bundesamt für Sicherheit in der Informationstechnik (BSI) und das Fraunhofer Heinrich Hertz Institute HHI für die gemeinsame Organisation! Stellvertretend für alle Expert:innen bedanken wir uns bei Prof. Wojciech Samek (Head of AI @ Fraunhofer HHI) und Dr. Rainer Plaga sowie Dr. #ArndtvonTwickel vom #BSI für den fruchtbaren fachlichen Austausch! #TÜVAILab #TrustworthyAI #AIQuality #AICertification #AIAudit
-
𝗗𝗶𝗲 #AICon 𝘄𝗶𝗹𝗹’𝘀 𝘄𝗶𝘀𝘀𝗲𝗻: 𝗭ü𝗻𝗱𝗲𝘁 𝗗𝗲𝘂𝘁𝘀𝗰𝗵𝗹𝗮𝗻𝗱 𝗱𝗲𝗻 𝗞𝗜-𝗧𝘂𝗿𝗯𝗼? 🚀 „Um wettbewerbsfähig zu bleiben, darf Deutschland nicht den Anschluss in Sachen Digitalisierung und #KünstlicheIntelligenz verlieren. Deshalb ist es umso wichtiger, den #AIAct trotz der aktuellen Regierungskrise zügig national umzusetzen. So schaffen wir Planungs- und Rechtssicherheit und eröffnen Unternehmen einen breiten Innovationskorridor”, sagte unsere CEO, Franziska Weindauer, gestern auf der #TÜVAICon 2024, veranstaltet vom TÜV-Verband. Franziska diskutierte zunächst im 𝘼𝙄 𝘼𝙘𝙩 𝙏𝙖𝙡𝙠: 𝙒𝙤 𝙨𝙩𝙚𝙝𝙚𝙣 𝙬𝙞𝙧 𝙗𝙚𝙞 𝙙𝙚𝙧 𝙣𝙖𝙩𝙞𝙤𝙣𝙖𝙡𝙚𝙣 𝙐𝙢𝙨𝙚𝙩𝙯𝙪𝙣𝙜 𝙙𝙚𝙨 𝘼𝙄 𝘼𝙘𝙩? zusammen mit Ana Dujić (Leiterin der Abteilung Denkfabrik Digitale Arbeitsgesellschaft im Bundesministerium für Arbeit und Soziales), Dr. Andreas Liebl (Geschäftsführer appliedAI Initiative GmbH), Dr. Matthias Koehler (Unterabteilungsleiter Digitalpolitik & digitale Wirtschaft Bundesministerium für Wirtschaft und Klimaschutz), moderiert von Johannes Kröhnert, über die anstehende Umsetzung der KI-Verordnung in Deutschland. Im zweiten Talk 𝙕ü𝙣𝙙𝙚𝙩 𝘿𝙚𝙪𝙩𝙨𝙘𝙝𝙡𝙖𝙣𝙙 𝙙𝙚𝙣 𝙆𝙄-𝙏𝙪𝙧𝙗𝙤 𝙛ü𝙧 𝙙𝙞𝙜𝙞𝙩𝙖𝙡𝙚 𝙑𝙚𝙧𝙬𝙖𝙡𝙩𝙪𝙣𝙜 𝙜𝙚𝙜𝙚𝙣 𝘿𝙚𝙨𝙞𝙣𝙛𝙤𝙧𝙢𝙖𝙩𝙞𝙤𝙣? sprach Franziska mit Ammar Alkassar (Vorstandsmitglied GovTech Campus Deutschland) und Dr. Maximilian Wehage (Leiter Projektgruppe KI im Bundesministerium des Innern und für Heimat), unter Moderation von Patrick Gilroy, spezifisch über die Chancen und Herausforderungen von KI in der Öffentlichen Verwaltung. Fazit beider Talks: Angesichts zahlreicher Herausforderungen sind die technologischen Entwicklungen im Bereich KI eine echte Chance für den Standort Deutschland. Um diese Chancen zu nutzen und das hierfür notwendige Vertrauen in KI zu etablieren, bedarf es nun einer zügigen und konsequenten Umsetzung des AI Acts. Ein großen Dankeschön an den TÜV-Verband, dessen CEO Dr. Joachim Bühler, den Head of Artificial Intelligence and Education, Dr. Patrick Gilroy und an das Event-Team Maria Sürig und Ronja Schlender für die Organisation der TÜV AICon! 👏 #TÜVAILab #Governance #TrustworthyAI #AIAct Fotos: Tobias Koch
-
Eines unserer Jahreshighlights: Vorstellung unserer #AIAssessmentMatrix auf der TÜV #AICon! 🔎 „Was im Diskurs zur KI-Prüfung und -Zertifizierung bislang fehlte, ist eine umfassende systematische Ordnung der #Prüfdimensionen für KI, verbunden mit der Möglichkeit, das Feld dieser Prüfdimensionen in seiner – potenziellen – Gesamtheit auszumessen. Die #AIAssessment Matrix schafft hier erstmals Abhilfe”, so stellte unser Senior Advisor AI Ethics and Quality, Dr. Christoph Poetsch, auf der heutigen #TÜVAICon des TÜV-Verband unsere TÜV AI. Lab AI Assessment Matrix, wesentlicher Bestandteil des TÜV AI Assessment Frameworks, vor. ✔️ Die AI Assessment #Matrix bietet eine systematische Gesamtordnung aller Prüfkriterien, Prüfgegenstände und Prüfformen für KI-Systeme und schafft damit erstmals eine durchgängige Struktur für das gesamte Feld der KI-Prüfung. ✔️ Sie verbindet eine konsistente und normgerechte Begriffsklärung mit gesetzlichen Vorgaben wie dem EU AI Act und integriert bestehende Prüfansätze, um eine umfassende Anschlussfähigkeit zu gewährleisten. ✔️ Gleichzeitig bietet die Matrix einen flexiblen Rahmen, der auch ethische Dimensionen und Nachhaltigkeitsaspekte von #KI berücksichtigt und eine Brücke zwischen theoretischen Begriffen und praktischen Prüfmethoden schlägt. Heute noch exklusiv für das Fachpublikum vor Ort, werden wir die TÜV AI.Lab AI Assessment Matrix in Kürze an dieser Stelle veröffentlichen – folgt uns und aktiviert die Glocke auf unserer Unternehmensseite, um die Veröffentlichung nicht zu verpassen! 🔔 Ein großen Dankeschön an den TÜV-Verband, dessen CEO Dr. Joachim Bühler, den Head of Artificial Intelligence and Education, Dr. Patrick Gilroy und an das Event-Team Maria Sürig und Ronja Schlender für die Organisation der AICon! 👏 #TÜVAILab #TrustworthyAI #AIQuality #AICertification Foto: Tobias Koch
-
TÜV AI.Lab hat dies direkt geteilt
Ethical questions raised by the use of Artificial Intelligence 🤖🔍 Does AI have to be ethical, and can we even entirely fulfil this ambition? Which ethical criteria does the EU AI Act request? 🤔 The ethical implications of AI are intensely discussed, and various ethical questions arise in the context or the use of artificial intelligence. As the technology condenses and scales processes formerly made by humans, it is worth considering that it could also reproduce and amplify human faults. While AI as a technology comes with a broad range of ethical dimensions, the #AIAct in particular asks for the following ethical criteria (in a narrow sense): 🛡 data governance ⚖ (absence of unwanted) bias and non-discrimination 🔍 transparency Dominant within the AI Act are technical criteria, such as performance, #robustness or #cybersecurity. As the core of ethics is reflected in questions such as: “How should I live? How should I treat others? How should limited goods, how should burdens be distributed?” the AI Act itself can though be seen as an inherently ethical regulation. This shows e.g. ➡ in the prohibition of AI systems which influence subconsciously ➡ in the prohibition of AI systems which categorize based on protected properties ➡ generally in the AI Act’s risk-based approach, setting strict requirements to those AI systems that could potentially harm human safety or security. Based on this risk-based approach, the regulation classifies AI systems from “minimal risk” to “unacceptable risk” – with clear rules to protect citizens' rights. 💼 High-risk applications, whether in already regulated sectors such as medicine and machinery, or in risk-associated areas of use such as critical infrastructure or HR, must meet stricter requirements to ensure trustworthiness. For “limited risk” systems, transparency obligations apply, while “minimal risk” applications have no obligations. And private use of AI? Also exempt from requirements. But how do you know which risk category your AI system falls into? Our partner company, TÜV AI.Lab, has developed the AI Act Risk Navigator – a free and easy to use online tool (currently only in German, English version coming soon)! Which AI applications do you already use in your daily life? Let’s discuss! 💬 ⬇ #tuvrheinland #ai #tuvailab #aiethics #artificialintelligence