Die San José Jugendkommission ist die offizielle Jugendberatungsgruppe des Bürgermeisters und des Stadtrats. Wir vertreten die gesamte Jugend und arbeiten daran:
- Ermöglichen Sie jungen Menschen, ihre Karriere zu verfolgen, und ermutigen Sie sie, sich durch lokale und stadtweite Veranstaltungen und Initiativen bürgerschaftlich zu engagieren.
- Schaffen Sie einen sicheren, integrativen und zugänglichen Raum für Jugendliche in San Jose, um ihre Leidenschaften und ihr Interesse auszudrücken.
- Gleichberechtigten Zugang und Unterstützung für benachteiligte Jugendgemeinschaften bieten.
- Sensibilisieren Sie die Jugend von San Jose für verschiedene Themen und Möglichkeiten.
- Den Stadtrat beraten und auffordern, nach den Prioritäten und Beiträgen der Jugend zu handeln.
Geschrieben von Aroshi Ghosh (Senior an der Leland High School)
Das Video Autonomie für unbemannte Systeme Die Arbeit von Amir Quayumi mit intelligenten Robotern zeigte, dass intelligente Systeme zu einem integralen Bestandteil der Operationen der US Navy und des Marine Corps geworden sind. Tatsächlich setzte die US Navy bereits 1917 ferngesteuerte Drohnen ein, um deutsche U-Boote abzuwehren. Nach den Anschlägen vom 11. September 2001 setzte die CIA ebenfalls unbemannte autonome Systeme ein, um tödliche Geheimoperationen gegen militante Gruppen durchzuführen. Der ehemalige Verteidigungsminister James N. Mattis sagt voraus, dass künstliche Intelligenz (KI), die zugrunde liegende Technologie hinter diesen unbemannten Fahrzeugen, die „grundlegende Natur des Krieges“ verändern und unser Militär zu bloßen Zuschauern des Kampfes werden wird.
Warum ist ethische KI so wichtig?
Das Peter-Parker-Prinzip besagt, dass „mit großer Macht auch große Verantwortung einhergeht“ und Ethik der Grundstein sein muss, um zu bestimmen, wie KI-Technologie von unseren Streitkräften eingesetzt wird. Schließlich stellt die Technologie, die Science-Fiction zum Leben erweckt, aufgrund ihrer einzigartigen Einsatzmöglichkeiten und unvorhersehbaren Auswirkungen auf den Menschen auch unsere Truppen vor große Herausforderungen. Hollywood-Science-Fiction-Filme, wie z 2001: A Space Odyssey und Blade Runner präsentierte eine alarmistische dystopische Vision von KI, die den Möglichkeiten dieser intelligenten Technologien, Probleme wie Klimawandel, Nachhaltigkeit und Katastrophenhilfe anzugehen und gleichzeitig die Sicherheit unserer Truppen zu gewährleisten, nicht gerecht wird.
Während der Einsatz von Roboterfahrzeugen und autonomen Waffen zum Schutz menschlicher Kämpfer und zur Vereinfachung der Entscheidungsfindung für Analysten große Aufregung hervorruft, herrscht ebenso große Besorgnis über Killerroboter und ungenaue Gesichtserkennungstechnologien, die Ziele falsch kennzeichnen. Manipulation von Daten, unvollständige Datenaufzeichnung und Auswahl hochwertiger Trainingsdaten sind einige der Herausforderungen, denen sich der effektive Einsatz von KI im Militär gegenübersieht. Daher ist es unerlässlich, dass wir über den Einsatz von KI hinausdenken, um Spitzenleistungen im Kampf zu erzielen, und beim Einsatz dieser vielversprechenden Technologie die rechtlichen, sozialen und ethischen Auswirkungen berücksichtigen.
Wie Colonel Katherine Powell im Film von 2015 sagte Auge im Himmel, „Es steht viel mehr auf dem Spiel, als Sie auf diesem Bild sehen“, was das moralische Dilemma moderner Kriegsführung verdeutlicht, die auf autonome Flugzeuge und Technologie angewiesen ist. Der Drohnenangriff im Film auf ein Terroristenlager von al-Shabaab eröffnet nicht nur eine Debatte über akzeptable Kollateralschäden, sondern führt uns auch durch den schrittweisen Entscheidungsprozess inmitten sich verändernder Realitäten, um über Leben und Tod der beteiligten Personen zu verhandeln.
Unsere Marine steht vor einem ähnlichen Problem: Sie muss wirksame KI-Lösungen entwickeln, die die „Freiheit unseres Landes schützen, den wirtschaftlichen Wohlstand bewahren, die Meere offen und frei halten … (und) die amerikanischen Interessen rund um den Globus verteidigen …“ und gleichzeitig sicherstellen, dass die Technologie „verantwortungsvoll, gerecht, nachvollziehbar, zuverlässig und steuerbar“ ist.
Was sind einige aktuelle Probleme mit KI?
Man kommt nicht umhin, sich zu fragen, ob KI-gesteuerte superintelligente Maschinen wirklich die Essenz menschlicher Intelligenz, Emotionen, Gedanken und Gefühle nachbilden können oder ob wir lediglich versuchen, Computerlösungen für alle Probleme zu projizieren, weil KI zum angesagtesten Schlagwort der Welt geworden ist die Technologiewelt. Wir übersehen oft, dass KI-Systeme auch für alltäglichere, sich wiederholende Aufgaben in den Streitkräften eingesetzt werden können, wie zum Beispiel die Vorhersage von Zeitplänen für die Fahrzeugwartung, die Erkennung von Anomalien zur Verhinderung feindlicher Angriffe und den Einsatz von Drohnen zur besseren Erkennung von Bedrohungen. Durch die vorgestellten Videos habe ich gelernt, wie autonome U-Boote eingesetzt werden können, um Meeresböden zu kartieren, Minen aufzuspüren, invasive Seegrasarten zu identifizieren und Rettungseinsätze durchzuführen. Ich bin von Expertensystemen und ihren Anwendungen inspiriert, um reale Probleme zu lösen, mit denen wir heute konfrontiert sind.
Das Video auf Autonome Schiffe und Boote Das Projekt, in dem die Arbeit von Dr. Bob Brizzolara vorgestellt wurde, zeigte auch, wie Marineforscher dazu inspiriert wurden, natürliche Lebensformen wie das Flügel- oder Flossendesign von Vögeln, Fischen und Delfinen nachzuahmen, als sie spezifische Strukturmerkmale entwickelten, um die Mobilität, Geschicklichkeit usw. zu verbessern Intelligenz ihrer autonomen Systeme. Dr. Brizzolara erklärte, wie autonome Fahrzeuge in unbekannten Umgebungen funktionieren und aufgrund ihrer Entbehrlichkeit in gefährlichen Situationen eingesetzt werden können.
Trotz dieser bahnbrechenden Errungenschaften sind bei der Entscheidungsfindung in kritischen Situationen immer noch Menschen beteiligt, da der Mensch von Natur aus besser in der Lage ist, Metadaten zu kontextualisieren und zu verstehen. Diese Beobachtungen bestärkten mich in meiner Überzeugung, dass KI angemessen und kosteneffektiv eingesetzt werden muss, um verschiedene Probleme in den Streitkräften zu lösen. KI ist kein Allheilmittel, kann aber dazu eingesetzt werden, die Effizienz in bestimmten Bereichen zu verbessern und unser Leben einfacher zu machen. In anderen Bereichen ist die menschliche Intelligenz jedoch immer noch im Vorteil.
Was ist die Lösung?
Die optimale Strategie zur Modernisierung der Marine, bis die KI-Entwicklung in allen Kampfsituationen vertrauenswürdig ist, besteht darin, Aufgaben mit Regeln und Mustern zu identifizieren, damit wir Anwendungsfälle automatisieren können, die vorhersehbar und störungsfrei sind. Indem wir Technologie aus dem privaten Sektor in Nicht-Kampf- und Unterstützungsfunktionen integrieren, anstatt sie von Grund auf neu zu entwickeln, können wir KI in Bereichen wie Feldtraining, Wartung, Verwaltung, Kriegsspielstrategie, Lieferkettenlogistik und Persönlichkeitsbeurteilungen effektiv einsetzen. Indem wir der Integration von Legacy-Datenbanken in Cloud- und KI-Systeme Priorität einräumen, können wir sicherstellen, dass die Daten, die in KI-Systeme eingespeist werden, genau, zuverlässig, kostengünstig, betriebsbereit und sicher sind. Schließlich hilft die Identifizierung, wie Maschinen und Menschen nahtlos zusammenarbeiten können, bei der Schaffung idealer KI-Lösungen. Mehrere Initiativen, wie die Avenger Naval AI Grand Challenge, wurden vom Verteidigungsministerium in Zusammenarbeit mit dem Dienst, Marinelabors und dem Joint Artificial Intelligence Center ins Leben gerufen, um KI-Technologien besser in die Flotten zu integrieren.
Selbstlernende KI, die biologisch basierte neuronale Netze mit einem „Beobachten-und-Lernen“-Ansatz verwendet, um „Erfahrung, Wissen und Fähigkeiten zu sammeln“, verfügt über ein gewisses Maß an Fähigkeit, Aktionen zu definieren und einen Kontext bereitzustellen, der die Notwendigkeit dieser Aktionen erklärt. Dennoch sind diese KI-Algorithmen für maschinelles Lernen auch anfällig für Datenvergiftung und Verzerrung.
Welche Auswirkungen haben Datenvergiftung und Verzerrung?
Eine grundlegende Voraussetzung für tragfähige KI-Lösungen, die auf maschinellem Lernen basieren, ist der ständige Zugriff auf fehlerfreie und vielfältige Daten. Dies stellt für die Marine eine erhebliche Herausforderung dar, da mehrere Faktoren eine Rolle spielen, wie etwa die Speicherung in veralteten Datenbanken, schlechte Internetverbindung, Abhängigkeit von Open-Source-Software, veraltete Sicherheitssysteme, schlechte Benutzeroberflächen und die Kosten für die Entwicklung proprietärer Technologien. Das Trainieren von Deep-Learning-Modellen kann außerdem ein langsamer und ressourcenintensiver Prozess sein, der enorme Rechenleistung erfordert.
Eine Möglichkeit besteht darin, zunächst KI-Lösungen aus dem privaten Sektor zu implementieren, um die Infrastruktur für die Einführung von KI-Technologie aufzubauen. Das Video dazu Datenwissenschaft mit Reece Koe hob diese Bemühungen zur Schaffung besserer intelligenter Systeme hervor. Das vom Pentagon initiierte Projekt Maven nutzt maschinelles Lernen, um nachrichtendienstliche Überwachungs- und Aufklärungsdaten zu sortieren, darunter Videos, Papier, Computerfestplatten, USB-Sticks usw. unbemannter Systeme, die anschließend von Analysten überprüft werden können.
Was ist der Black-Box-Effekt?
Vor dem großflächigen Einsatz autonomer Systeme im Feld ist ein gründliches Verständnis der Logik und Abfolge des Entscheidungsprozesses wichtig. Die nächste Entwicklungsstufe ist die Herausforderung, „maschinelles Lernen dazu zu bringen, einem Menschen seinen Entscheidungsprozess zu erklären“. Ohne Kontrolle, Rückverfolgbarkeit und Rechenschaftspflicht können die Streitkräfte KI-Technologie nicht zuverlässig einsetzen. Wenn es um echte Kriegsführung geht, kann die Entscheidungsfindung nicht einfach an Maschinen delegiert werden. Wie Stephen Thaler von Imagination Engines, ein Experte für KI für Roboter und Drohnen, sagte: „Admirale wollen jemanden, den sie vor ein Kriegsgericht stellen können, wenn etwas schiefgeht.“ Darüber hinaus ist die rechtliche Rechenschaftspflicht von Robotern nach internationalem Recht derzeit unklar, und Roboterentscheidungen müssen im Einklang mit den von der Gesellschaft und dem internationalen Recht definierten ethischen Standards stehen.
Die Blackbox rund um maschinelles Lernen kann bis zu einem gewissen Grad entmystifiziert werden. Mithilfe von Entscheidungsbäumen können Simulationen mit zahlreichen Datenpunkten durchgeführt und mit entsprechenden Aktionen verknüpft werden. Spezifische neuronale Netze können anhand ihrer Funktionalität isoliert und mit Gewichtungen versehen werden, um die Logik der Entscheidungsfindung zu ermitteln. Allerdings erklärt dieser Ansatz nicht die Logik von KI-Entscheidungen, sondern zeichnet stattdessen eine vorhersehbare Route auf der Grundlage bestimmter Bedingungen auf. Daher kann maschinelles Lernen auch viele Fehlalarme und vereinfachte, unbrauchbare Erklärungen auf der Grundlage begrenzter Daten hervorbringen, was die Zuverlässigkeit von KI in Frage stellt.
Vertrauen ist die wichtigste Komponente für eine optimale Mensch-Maschine-Synergie in der Marine, denn die Kosten für Fehlentscheidungen sind deutlich höher. Heutzutage sind KI-Systeme nicht mehr in der Lage, menschliche Nutzer ihre Entscheidungen und Handlungen angemessen zu erklären, und ungenaue Daten und unzuverlässige Algorithmen verhindern eine effektive Partnerschaft zwischen Mensch und Maschine.
Erklärbare KI-Modelle können effektiv mit intelligenten Mensch-Computer-Schnittstellentechniken und Symbollogik-Mathematik kombiniert werden, um eine Erklärung der Psychologie hinter der KI zu liefern, ohne Kompromisse bei der Vorhersagegenauigkeit und Leistung einzugehen. Die Zukunft der KI in den Streitkräften wird stärker sein, wenn es uns gelingt, transparente KI-Lösungen zu schaffen, die explizite oder illegale Voreingenommenheit verhindern, den Kontext und die Umgebung des Einsatzes verstehen, mit anderen intelligenten Maschinen kommunizieren und verständliche Erklärungsdialoge mit dem Endbenutzer führen. Dies sind spannende Zeiten im Bereich der KI und autonomen Systeme und unser Ziel muss es sein, die geeigneten Möglichkeiten zu finden, diese Technologie ethisch zu nutzen.
SEHEN SIE SICH WEITERE VIDEOS AN, UM ZU SEHEN, WIE TECHNOLOGIE IM MILITÄR EINGESETZT WIRD
Literaturverzeichnis
- Vorteile und Herausforderungen der Autonomie unbemannter Luftfahrzeuge im postheroischen Zeitalter - These
- Künstliche Intelligenz wirft Fragen zur Natur des Krieges auf: Mattis
- Eye in the Sky und die moralischen Dilemmata der modernen Kriegsführung
- Mission der US-Marine
- KI-Prinzipien: Empfehlungen des Verteidigungsministeriums zum ethischen Einsatz von Künstlicher Intelligenz
- Die Marine der Zukunft: Kurzfristige Anwendungen künstlicher Intelligenz
- Avenger Naval Grand Challenge
- Der Beginn der KI in der Seekriegsführung
- 4 Herausforderungen für die Marine, da immer mehr unbemannte Drohnen unter Wasser gehen
- Vorteile und Herausforderungen der Autonomie unbemannter Luftfahrzeuge im postheroischen Zeitalter - These
- Was ist erklärbare KI und warum braucht das Militär sie?
- Erklärbare Künstliche Intelligenz (XAI)
- Militärische Anwendungen künstlicher Intelligenz
Einen Kommentar hinzufügen zu: Youth Herald: Erklärbare KI in der US Navy