Le Commissione Giovanile San José è il gruppo consultivo ufficiale dei giovani del sindaco e del consiglio comunale. Rappresentiamo tutti i giovani e lavoriamo per:
- Consenti ai giovani di perseguire la loro carriera e incoraggiali a impegnarsi civicamente attraverso eventi e iniziative locali e in tutta la città.
- Promuovi uno spazio sicuro, inclusivo e accessibile per i giovani a San Jose per esprimere le loro passioni e interessi.
- Fornire accesso equo e sostegno alle comunità giovanili emarginate.
- Promuovere la consapevolezza su vari problemi e opportunità per i giovani di San Jose.
- Consigliare e sollecitare il Consiglio comunale ad agire in base alle priorità e ai contributi dei giovani.
Scritto da Aroshi Ghosh (anziano alla Leland High School)
Il video Autonomia per sistemi non presidiati con il lavoro di Amir Quayumi sui robot intelligenti ha dimostrato che i sistemi intelligenti sono diventati parte integrante delle operazioni della Marina degli Stati Uniti e del Corpo dei Marines. Infatti, già nel 1917, la Marina degli Stati Uniti ha utilizzato droni radiocomandati per contrastare gli U-Boot tedeschi. Dopo gli attacchi dell'11 settembre 2001, anche la CIA ha utilizzato sistemi autonomi senza pilota per condurre operazioni segrete letali contro gruppi militanti. L'ex Segretario della Difesa, James N. Mattis, prevede che l'intelligenza artificiale (IA), la tecnologia alla base di questi veicoli senza pilota, cambierà la "natura fondamentale della guerra" e i nostri militari diventeranno semplici spettatori del combattimento.
Perché l'IA etica è così importante?
Il principio di Peter Parker stabilisce che "da un grande potere derivano grandi responsabilità" e l'etica deve essere la pietra angolare per determinare come la tecnologia dell'IA viene impiegata dalle nostre forze armate. Dopotutto, la tecnologia che dà vita alla fantascienza pone serie sfide anche alle nostre truppe a causa delle loro applicazioni uniche e dell'imprevedibile impatto umano. Film di fantascienza di Hollywood, come 2001: Odissea nello spazio e Blade Runner ha presentato una visione distopica allarmistica dell'intelligenza artificiale che non rende giustizia alle possibilità di queste tecnologie intelligenti di affrontare questioni come il cambiamento climatico, la sostenibilità e i soccorsi in caso di calamità mantenendo le nostre truppe al sicuro.
Mentre c'è una notevole eccitazione sull'uso di veicoli robotici e armi autonome per proteggere i combattenti umani e semplificare il processo decisionale per gli analisti, c'è un'uguale misura di ansia per i robot killer e le tecnologie di riconoscimento facciale imprecise che etichettano erroneamente i bersagli. La manipolazione dei dati, la registrazione imperfetta dei dati e la selezione di dati di addestramento di qualità sono alcune delle sfide che devono affrontare l'efficace dispiegamento dell'IA nelle forze armate. Pertanto, è imperativo pensare oltre l'utilizzo dell'intelligenza artificiale per raggiungere l'eccellenza nel combattimento e considerare le ramificazioni legali, sociali ed etiche quando si implementa questa tecnologia promettente.
Come ha detto il colonnello Katherine Powell nel film del 2015 Occhio nel cielo, "C'è molto di più in gioco di quanto si veda in questa immagine", che evidenzia il dilemma morale della guerra moderna che dipende da velivoli e tecnologie autonomi. L'attacco dei droni nel film su un campo terroristico di al Shabaab non solo apre un dibattito sui danni collaterali accettabili, ma ci guida attraverso il processo decisionale passo dopo passo in mezzo a realtà mutevoli per negoziare la vita e la morte per i personaggi coinvolti.
Un enigma simile si presenta alla nostra Marina Militare quando si tratta di definire soluzioni di intelligenza artificiale efficaci che proteggano la "libertà, preservino la prosperità economica, mantengano i mari aperti e liberi... (e) difendano gli interessi americani in tutto il mondo...", garantendo al contempo che la tecnologia sia "responsabile, equa, tracciabile, affidabile e governabile".
Quali sono alcuni problemi attuali con l'IA?
Non si può fare a meno di chiedersi se le macchine super-intelligenti guidate dall'intelligenza artificiale possano davvero duplicare l'essenza dell'intelligenza umana, delle emozioni, dei pensieri e dei sentimenti o se stiamo semplicemente cercando di progettare soluzioni informatiche a tutti i problemi perché l'intelligenza artificiale è diventata la parola d'ordine più alla moda in il mondo della tecnologia. Spesso trascuriamo che i sistemi di intelligenza artificiale possono essere sfruttati anche per le attività più banali e ripetitive nelle forze armate, come la previsione dei programmi per la manutenzione dei veicoli, il rilevamento di anomalie per prevenire gli attacchi nemici e l'impiego di droni per un migliore rilevamento delle minacce. Attraverso i video in primo piano, ho imparato come sfruttare i sottomarini autonomi per mappare i fondali marini, rilevare le mine, identificare le specie invasive di alghe ed eseguire operazioni di salvataggio. Mi ispiro ai sistemi esperti e alle loro applicazioni per risolvere i problemi del mondo reale che dobbiamo affrontare oggi.
Il video è acceso Navi e imbarcazioni autonome che ha mostrato il lavoro del Dr. Bob Brizzolara ha anche dimostrato come i ricercatori navali siano stati ispirati a imitare le forme di vita naturali, come il design delle ali o delle pinne di uccelli, pesci e delfini, durante lo sviluppo di caratteristiche strutturali specifiche per migliorare la mobilità, la destrezza e intelligenza dei loro sistemi autonomi. Il Dr. Brizzolara ha spiegato come i veicoli autonomi hanno funzionato in ambienti inesplorati e potrebbero essere impiegati in situazioni pericolose a causa della loro natura sacrificabile.
Nonostante questi risultati pionieristici, il processo decisionale in situazioni critiche coinvolge ancora gli esseri umani perché gli esseri umani sono naturalmente più capaci di contestualizzare e comprendere i metadati. Queste osservazioni hanno rafforzato la mia convinzione che l'IA debba essere sfruttata in modo appropriato ed economico per risolvere vari problemi nelle forze armate. L'intelligenza artificiale non è una panacea, ma può essere utilizzata per migliorare l'efficienza in aree specifiche e semplificarci la vita. Tuttavia, in altre aree, l'intelligenza umana ha ancora un vantaggio.
Qual'è la soluzione?
La strategia ottimale per modernizzare la Marina fino a quando lo sviluppo dell'IA non potrà essere considerato affidabile in tutte le situazioni di combattimento è identificare attività con regole e modelli in modo da poter automatizzare casi d'uso prevedibili e non dirompenti. Incorporando la tecnologia del settore privato in funzionalità non di combattimento e di supporto invece di progettarle da zero, possiamo utilizzare efficacemente l'IA in aree quali addestramento sul campo, manutenzione, amministrazione, strategia di wargame, logistica della supply chain e valutazioni della personalità. Dando priorità all'integrazione di database legacy nei sistemi Cloud e AI, possiamo garantire che i dati che alimentano i sistemi AI siano accurati, affidabili, poco costosi, operativi e sicuri. Infine, identificare come macchine ed esseri umani possono lavorare insieme senza problemi aiuta a creare soluzioni di AI ideali. Diverse iniziative, come The Avenger Naval AI Grand Challenge, sono state lanciate dal Dipartimento della Difesa in collaborazione con il servizio, i laboratori navali e il Joint Artificial Intelligence Center per integrare meglio le tecnologie AI nelle flotte.
L'IA ad autoapprendimento che utilizza reti neurali basate sulla biologia con un approccio "osserva e impara" per "accumulare esperienza, conoscenza e abilità" ha un certo grado di capacità di definire azioni e fornire un contesto che spieghi la necessità di tali azioni. Tuttavia, questi algoritmi di intelligenza artificiale di apprendimento automatico sono anche suscettibili di avvelenamento e distorsione dei dati.
Qual è l'effetto dell'avvelenamento e della distorsione dei dati?
Un requisito fondamentale delle soluzioni AI praticabili basate sull'apprendimento automatico è l'accesso costante a dati diversi e privi di errori. Questa è una sfida significativa per la Marina a causa di diversi fattori, come l'archiviazione in database legacy, scarsa connettività Internet, dipendenza da software open source, sistemi di sicurezza obsoleti, interfacce utente scadenti e il costo della progettazione di tecnologie proprietarie. L'addestramento di modelli di apprendimento profondo può anche essere un processo lento e ad alta intensità di risorse che richiede un'enorme quantità di potenza di calcolo.
Un'opzione è quella di implementare inizialmente soluzioni AI adottate dal settore privato per costruire l'infrastruttura per adottare la tecnologia AI. Il video su Scienza dei dati con Reece Koe ha evidenziato questo sforzo per creare sistemi intelligenti migliori. Project Maven, avviato dal Pentagono, utilizza l'apprendimento automatico per ordinare i dati di sorveglianza e ricognizione dell'intelligence che includono video di sistemi senza equipaggio, carta, dischi rigidi del computer, chiavette USB e così via, che possono essere successivamente esaminati dagli analisti.
Cos'è l'effetto scatola nera?
Prima dell'implementazione su larga scala di sistemi autonomi sul campo, è importante una conoscenza approfondita della logica e della sequenza del processo decisionale. La sfida di "far sì che l'apprendimento automatico spieghi il suo processo decisionale a un essere umano" è la prossima frontiera dello sviluppo. Senza controllo, tracciabilità e responsabilità, le forze armate non possono utilizzare la tecnologia AI in modo affidabile. Quando si tratta di vera guerra, il processo decisionale non può essere facilmente delegato alle macchine. Come ha affermato Stephen Thaler di Imagination Engines, esperto di AI per robot e droni, "Gli ammiragli vogliono che qualcuno ci pronunci alla corte marziale quando le cose vanno male". Inoltre, la responsabilità legale dei robot non è attualmente chiara ai sensi del diritto internazionale e le decisioni robotiche devono essere in congiunzione con gli standard etici definiti dalla società e dal diritto internazionale.
La scatola nera che circonda l'apprendimento automatico può essere in una certa misura demistificata. Gli alberi decisionali possono essere utilizzati per eseguire simulazioni con numerosi punti dati ed essere associati alle azioni corrispondenti. È possibile isolare specifiche reti neurali in base alla loro funzionalità e assegnare pesi per identificare la logica del processo decisionale. Tuttavia, questo approccio non spiega la logica delle decisioni dell'IA e traccia invece un percorso prevedibile basato su determinate condizioni. Pertanto, l'apprendimento automatico può anche produrre molti falsi positivi e spiegazioni semplicistiche e non praticabili basate su dati limitati, il che mette in discussione l'affidabilità dell'IA.
La fiducia è la componente più importante per una sinergia uomo-macchina ottimale in Marina perché il costo delle decisioni sbagliate è significativamente più alto. Oggi i sistemi di intelligenza artificiale non sono in grado di spiegare adeguatamente le loro decisioni e azioni agli utenti umani e dati imprecisi e algoritmi inaffidabili impediscono un'efficace collaborazione tra uomo e macchina.
I modelli di IA spiegabili possono essere abbinati efficacemente a tecniche di interfaccia uomo-computer intelligenti e matematica della logica dei simboli per fornire una spiegazione della psicologia alla base dell'IA senza compromettere l'accuratezza delle previsioni e le prestazioni. Il futuro dell'IA nelle forze armate sarà più forte se riusciremo a creare con successo soluzioni di IA trasparenti che impediscano pregiudizi espliciti o illegali, comprendano il contesto e l'ambiente operativo, comunichino con altre macchine intelligenti e si impegnino in dialoghi di spiegazione comprensibili con l'utente finale. Questi sono tempi entusiasmanti nel campo dell'IA e dei sistemi autonomi e la nostra ricerca deve essere quella di identificare le opportunità appropriate per utilizzare questa tecnologia in modo etico.
GUARDA ALTRI VIDEO PER VEDERE COME VIENE UTILIZZATA LA TECNOLOGIA IN AMBITO MILITARE
Opere citate
- Vantaggi e sfide dell'autonomia dei veicoli aerei senza pilota nell'era posteroica - tesi
- L'intelligenza artificiale pone domande sulla natura della guerra: Mattis
- Eye in the Sky e i dilemmi morali della guerra moderna
- Missione della Marina degli Stati Uniti
- Principi AI: Raccomandazioni sull'uso etico dell'intelligenza artificiale del Dipartimento della Difesa
- The Future Navy: applicazioni a breve termine dell'intelligenza artificiale
- Grande sfida navale del Vendicatore
- L'alba dell'IA nella guerra navale
- 4 sfide per la Marina mentre più droni senza pilota vanno sott'acqua
- Vantaggi e sfide dell'autonomia dei veicoli aerei senza pilota nell'era posteroica - tesi
- Che cos'è l'IA spiegabile e perché i militari ne hanno bisogno?
- Intelligenza artificiale spiegabile (XAI)
- Applicazioni militari dell'intelligenza artificiale
Aggiungi un commento a: Youth Herald: Explainable AI in the US Navy