Heureka - Einführung in die Philosophie/ Glossar/ Personen/ Künstliche Intelligenz
Künstliche Intelligenz
KI bezieht sich auf Maschinen oder Systeme, die in der Lage sind, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern. Das umfasst Bereiche wie maschinelles Lernen, Sprachverarbeitung, Mustererkennung und autonome Entscheidungsfindung. Siehe dazu auch Unterrichtsreihe des vergangenen Schuljahrs. Es gibt drei Arten von KI: - Super KI, Starke KI und Schwache KI.
Welche Ethisch-moralischen Konflikte können entstehen? Konflikte können bei Bias und Diskriminierung in Algorithmen, Privatsphäre und Datenschutz, Autonome Entscheidungsfindung und Verantwortlichkeit und den sozialen Auswirkungen von KI entstehen.
Sie besagt drei Hauptkriterien für KI und ihre Verwendung. Dennoch muss sie immer so aufgebaut sein, dass sie die Effizienz maximiert und mögliche Risiken minimiert werden.
Die EU-Richtlinie Sie besagt drei Hauptkriterien für KI und ihre Verwendung. Dennoch muss sie immer so aufgebaut sein, dass sie die Effizienz maximiert und mögliche Risiken minimiert werden. Rechtmäßige KI: Die Entwicklung, Einführung und Nutzung von KI-Systemen müssen den geltenden rechtlichen Vorschriften auf verschiedenen Ebenen entsprechen, sowohl horizontal als auch fachspezifisch. Das geltende Recht schreibt sowohl positive als auch negative Verpflichtungen vor, die beachtet werden müssen. Ethische KI: KI-Systeme müssen nicht nur rechtmäßig, sondern auch ethisch sein, d.h. sie müssen mit ethischen Normen in Einklang stehen. Die Leitlinien sollen eine Hilfestellung für die Förderung und Sicherung ethischer KI bieten, die möglicherweise über die bestehenden gesetzlichen Verpflichtungen hinausgeht. Robuste KI: KI-Systeme müssen ihre Funktionen auf abgesicherte und zuverlässige Weise erfüllen, um unbeabsichtigten Schaden zu vermeiden. Sicherheitsmaßnahmen sollten im Vorfeld getroffen werden, um unerwünschte negative Auswirkungen zu verhindern. Die technische Robustheit der Systeme hängt vom jeweiligen Kontext, Anwendungsgebiet und Lebenszyklus ab.
Verschiedene Verwendungen von KI haben schon Probleme aufgewiesen: 1. Amazon's Recruiting-Tool: Amazon entwickelte ein KI-gestütztes Bewerberauswahl-Tool, das Bewerbungen analysierte und potenzielle Kandidaten bewertete. Es wurde jedoch festgestellt, dass das System Männer gegenüber Frauen bevorzugte. Dies könnte auf historische Daten zurückzuführen sein, die die KI zur Entscheidungsfindung nutzte, und führte zu geschlechtsspezifischer Diskriminierung. (Quelle: Reuters, 2018)
2. Verwendung von KI in der Justiz: Einige Gerichtssysteme (vor allem in den USA) nutzen KI-Algorithmen, um das Rückfallrisiko von Straftätern zu bewerten. Jedoch haben Untersuchungen gezeigt, dass diese Algorithmen aufgrund von Bias in den verwendeten Daten zu unfairen Urteilen führen können, indem sie bestimmte Gruppen übermäßig belasten. (Quelle: ProPublica, 2016)
Größtes Problem: Die Frage der Verantwortung und Entscheidungspflicht bei selbstfahrenden Autos. Lange Diskussionen stehen bevor, da es nicht „eine Richtige“ Lösung gibt.