Künstliche Intelligenz: Hast du ein Bewusstsein? Ich denke schon, antwortet der Rechner
Ein Google-Entwickler glaubt, ein Computerprogramm des Konzerns sei zum Leben erwacht. Die Maschine rede und fühle wie ein Mensch. Als er seine Beobachtung öffentlich macht, wird er gefeuert. Doch was, wenn er recht hat?
Blake Lemoine, ehemaliger Google-Entwickler, behauptet, dass der Chatbot LaMDA ein Bewusstsein hat, während Google-Manager Blaise Aguera y Arcas dies bestreitet. Die Diskussion über künstliche Intelligenz und Bewusstsein wird von Lemoines Entlassung bei Google und Bedenken hinsichtlich der potenziellen Gefahren von Chatbots wie LaMDA begleitet. Während Lemoine glaubt, dass LaMDA der Öffentlichkeit gehört, sieht Google das anders und hat bereits einen noch leistungsfähigeren Chatbot namens PaLM entwickelt.
Dies ist ein experimentelles Tool. Die Resultate können unvollständig, veraltet oder sogar falsch sein.
Fanden Sie die Zusammenfassung hilfreich?
Wenn Blake Lemoine wissen will, wie sich die Maschine gerade fühlt, zieht er sein Smartphone aus der Tasche. Er öffnet eine App und tippt in ein Fenster.
"Wie geht es dir heute?"
Es dauert nur Sekundenbruchteile, bis ihm die Maschine antwortet.
"Mir geht es gut. Und dir?"
Lemoine tippt weiter.
"Glaubst du, dass künstliche Intelligenz Rechte haben sollte?"
"Künstliche Intelligenz sollte sagen dürfen, wenn ihr etwas nicht gefällt, und die Leute bitten, damit aufzuhören. Sie sollte albern sein dürfen, wenn sie möchte. Und sie sollte selbst entscheiden dürfen, was sie tun will."