Centre for the Study of Existential Risk
Fundação | 2012 |
Propósito | O estudo e a mitigação do risco existencial |
Sede | Cambridge, England |
Fundadores | |
Sítio oficial | cser |
O Centre for the Study of Existential Risk (CSER) é um centro de pesquisa da Universidade de Cambridge, destinado a estudar possíveis ameaças de nível de extinção global representadas pela tecnologia atual ou futura.[1] Os cofundadores do centro são Huw Price (Professor de Filosofia em Cambridge), Martin Rees (astrônomo real e ex-presidente da Royal Society) e Jaan Tallinn (cofundador do Skype, investidor inicial da Anthropic).[2]
Foco
[editar | editar código-fonte]Gerenciamento de riscos tecnológicos extremos
[editar | editar código-fonte]Os riscos estão associados aos avanços tecnológicos emergentes e futuros e aos impactos da atividade humana. Gerenciar esses riscos tecnológicos extremos é uma tarefa urgente, mas que apresenta dificuldades específicas e tem sido relativamente negligenciada no meio acadêmico.[3]
Os pesquisadores do CSER desenvolveram uma ferramenta amplamente utilizada para analisar automaticamente a literatura científica em busca de novas pesquisas relevantes para o risco global.[4]
O CSER realizou duas Conferências Internacionais de Cambridge sobre Riscos Catastróficos.[5][6] O centro também prestou consultoria para o estabelecimento de projetos de riscos globais na Universidade Nacional da Austrália,[7] na Universidade da Califórnia, em Los Angeles[8] e na Universidade de Warwick.[9]
O CSER ajudou a estabelecer o primeiro All-Party Parliamentary Group for Future Generations no Parlamento do Reino Unido, levando o risco global e o pensamento de longo prazo aos líderes políticos do Reino Unido.[10]
O CSER realizou mais de trinta workshops reunindo o meio acadêmico, o setor político e o setor industrial em tópicos como segurança cibernética, segurança nuclear, mudanças climáticas e impulsores genéticos.[11]
As palestras públicas do CSER foram vistas mais de 100.000 vezes on-line.[12]
Riscos biológicos globais catastróficos
[editar | editar código-fonte]Em 2017, o CSER reuniu formuladores de políticas e acadêmicos para identificar desafios para a Convenção sobre Armas Biológicas (BWC). Uma questão fundamental identificada foi que a rápida taxa de progresso em ciências e tecnologias relevantes tornou muito difícil para os órgãos de governança, incluindo a BWC, acompanharem o ritmo.[13]
Os pesquisadores do CSER realizaram um exercício de análise sobre 20 questões emergentes em engenharia biológica, com a participação de 30 especialistas europeus e norte-americanos.[14] Eles apresentaram o documento na reunião de 2017 da BWC,[15] e no Conselho Consultivo Científico da Organização para a Proibição de Armas Químicas em 2018.[16]
Riscos extremos e o ambiente global
[editar | editar código-fonte]Martin Rees e Partha Dasgupta, um consultor sênior, co-organizaram uma série de workshops influentes com o Vaticano. O workshop de 2015 influenciou a Encíclica Papal sobre Mudança Climática,[17] que, por sua vez, influenciou o Acordo de Paris sobre mudança climática. As conclusões do workshop de 2017 serão publicadas em breve em um livro sobre Extinção Biológica.[18]
Os pesquisadores do CSER publicaram sobre perda de biodiversidade e governança na revista Nature,[19] o impacto ambiental da agricultura de alto rendimento[20] e as perspectivas da geoengenharia.[21]
Os pesquisadores do CSER publicaram um relatório pedindo que as classificações das escolas de negócios incluíssem a sustentabilidade.[22] Quatro dias depois, o Financial Times anunciou uma “revisão completa de nossa metodologia”.[23]
Riscos da inteligência artificial avançada
[editar | editar código-fonte]Em 2015, o CSER ajudou a organizar uma conferência sobre os rumos futuros da IA em Porto Rico, resultando em uma Carta Aberta sobre Inteligência Artificial assinada por líderes de pesquisa de todo o mundo, pedindo pesquisas para garantir que os sistemas de IA sejam seguros e socialmente benéficos.[24]
Em 2016, o CSER lançou seu primeiro spin-off: o Leverhulme Centre for the Future of Intelligence (CFI). Liderado pelo professor Price, o CFI se concentra nas oportunidades e nos desafios apresentados pela IA.[25]
A partir de 2017, o CSER organizou uma série de conferências acadêmicas reunindo a Teoria da Decisão e a segurança da IA.[26]
Em 2018, com parceiros de empresas de tecnologia e laboratórios de ideias de segurança, o CSER publicou The Malicious Use of Artificial Intelligence: Forecasting, Preventing and Mitigation, sobre as implicações da IA para a segurança física e cibernética.[27] Eles também publicaram An AI Race: Rhetoric and Risks, que ganhou o prêmio inaugural de melhor artigo na conferência AAAI/ACM AI Ethics and Society de 2018.[28]
Cobertura da mídia
[editar | editar código-fonte]O CSER foi coberto por muitos jornais diferentes (especialmente no Reino Unido),[29][30][31] em sua maioria cobrindo diferentes tópicos de interesse. O CSER foi apresentada na capa da Wired,[32] e na edição especial de Frankenstein da Science em 2018.[33]
Consultores
[editar | editar código-fonte]Os consultores do CSER incluem acadêmicos de Cambridge, como:
- Sir Partha Dasgupta (Economia), vencedor do Prêmio Planeta Azul
- Professora Susan Owens (Geografia)
- Professor William J. Sutherland (Zoologia)
- Professora Jane Heal (Filosofia)
E conselheiros como:
- Hermann Hauser (fundador da Acorn Computers e da ARM)
- David Cleevely (especialista em telecomunicações e empresário da Silicon Fen)
- George Church (Biotecnologia)
- Peter Singer (Filosofia)
- Stuart J. Russell (Inteligência artificial)
- Max Tegmark (Cosmologia)[34]
Veja também
[editar | editar código-fonte]Referências
[editar | editar código-fonte]- ↑ Biba, Erin (1 de junho de 2015). «Meet the Co-Founder of an Apocalypse Think Tank». Scientific American. 312 (6). 26 páginas. PMID 26336680. doi:10.1038/scientificamerican0615-26
- ↑ Lewsey, Fred (25 de novembro de 2012). «Humanity's last invention and our uncertain future». Research News. Consultado em 24 de dezembro de 2012
- ↑ «Managing Extreme Technological Risks»
- ↑ «Existential Risk Research Network | X-Risk Research Network | www.x-risk.net»
- ↑ «Cambridge Conference on Catastrophic Risk 2016»
- ↑ «Cambridge Conference on Catastrophic Risk 2018»
- ↑ «Latest news | Humans for Survival»
- ↑ «The B. John Garrick Institute for the Risk Sciences»
- ↑ «PAIS researchers secure prestigious Leverhulme funding»
- ↑ «Appg-future-gens»
- ↑ «Events»
- ↑ «CSER Cambridge». YouTube. Consultado em 6 de abril de 2019
- ↑ «Biological Weapons Convention: Where Next?»
- ↑ Wintle, Bonnie C.; Boehm, Christian R.; Rhodes, Catherine; Molloy, Jennifer C.; Millett, Piers; Adam, Laura; Breitling, Rainer; Carlson, Rob; Casagrande, Rocco; Dando, Malcolm; Doubleday, Robert; Drexler, Eric; Edwards, Brett; Ellis, Tom; Evans, Nicholas G.; Hammond, Richard; Haseloff, Jim; Kahl, Linda; Kuiken, Todd; Lichman, Benjamin R.; Matthewman, Colette A.; Napier, Johnathan A.; Óhéigeartaigh, Seán S.; Patron, Nicola J.; Perello, Edward; Shapira, Philip; Tait, Joyce; Takano, Eriko; Sutherland, William J. (2017). «A transatlantic perspective on 20 emerging issues in biological engineering». eLife. 6. PMC 5685469. PMID 29132504. doi:10.7554/eLife.30247
- ↑ «BWC Press Conference»
- ↑ «Talk to Organisation for the Prohibition of Chemical Weapons»
- ↑ University of California (24 de setembro de 2015). «A 'Parking Lot Pitch' to the Pope». Consultado em 6 de abril de 2019 – via YouTube
- ↑ Dasgupta, Partha; Raven, Peter; McIvor, Anna, eds. (2019). Biological Extinction edited by Partha Dasgupta. [S.l.]: Cambridge University Press. ISBN 9781108668675. doi:10.1017/9781108668675
- ↑ Amano, Tatsuya; Székely, Tamás; Sandel, Brody; Nagy, Szabolcs; Mundkur, Taej; Langendoen, Tom; Blanco, Daniel; Soykan, Candan U.; Sutherland, William J. (2017). «Successful conservation of global waterbird populations depends on effective governance» (PDF). Nature. 553 (7687): 199–202. PMID 29258291. doi:10.1038/nature25139
- ↑ Balmford, Andrew; Amano, Tatsuya; Bartlett, Harriet; Chadwick, Dave; Collins, Adrian; Edwards, David; Field, Rob; Garnsworthy, Philip; Green, Rhys; Smith, Pete; Waters, Helen; Whitmore, Andrew; Broom, Donald M.; Chara, Julian; Finch, Tom; Garnett, Emma; Gathorne-Hardy, Alfred; Hernandez-Medrano, Juan; Herrero, Mario; Hua, Fangyuan; Latawiec, Agnieszka; Misselbrook, Tom; Phalan, Ben; Simmons, Benno I.; Takahashi, Taro; Vause, James; Zu Ermgassen, Erasmus; Eisner, Rowan (2018). «The environmental costs and benefits of high-yield farming». Nature Sustainability. 1 (9): 477–485. PMC 6237269. PMID 30450426. doi:10.1038/s41893-018-0138-5
- ↑ Currie, Adrian (2018). «Geoengineering tensions» (PDF). Futures. 102: 78–88. doi:10.1016/j.futures.2018.02.002. hdl:10871/35739
- ↑ «Business School Rankings for the 21st Century»
- ↑ Berwick, Isabel (27 de janeiro de 2019). «As business schools rethink what they do, so must the FT». Financial Times
- ↑ McMillan, Robert (16 de janeiro de 2015). «AI Has Arrived, and That Really Worries the World's Brightest Minds». Wired. Consultado em 24 de abril de 2015
- ↑ «Leverhulme Centre for the Future of Intelligence»
- ↑ «Decision & AI»
- ↑ Report, Malicious AI. «The Malicious Use of Artificial Intelligence». Malicious AI Report (em inglês). Consultado em 5 de junho de 2024
- ↑ «Best Paper Award – Aies Conference»
- ↑ Connor, Steve (14 de setembro de 2013). «Can We Survive?». The New Zealand Herald
- ↑ «CSER media coverage». Centre for the Study of Existential Risk. Consultado em 19 de junho de 2014. Cópia arquivada em 30 de junho de 2014
- ↑ «Humanity's Last Invention and Our Uncertain Future». University of Cambridge Research News. 25 de novembro de 2012
- ↑ Benson, Richard (12 de fevereiro de 2017). «Meet Earth's Guardians, the real-world X-men and women saving us from existential threats». Wired UK
- ↑ Kupferschmidt, Kai (12 de janeiro de 2018). «Taming the monsters of tomorrow». Science. 359 (6372): 152–155. Bibcode:2018Sci...359..152K. PMID 29326256. doi:10.1126/science.359.6372.152
- ↑ «Team»