Freitag, März 29, 2024
StartZARONEWS PresseAgenturKünstliche Intelligenz

Künstliche Intelligenz

 

cyborg-ende-zivilisation

In einem Artikel bezeichnet Physiker Stephen Hawking die potenzielle Erschaffung einer künstlichen Intelligenz (KI) als “größtes Ereignis in der Geschichte der Menschheit”. Es könne jedoch auch das letzte sein, wenn die Risiken dieser Entwicklung nicht beachtet werden. Er prangert dabei im Besonderen…

den Mangel an ernstzunehmenden Forschungsarbeiten an.

Das Konzept einer hochintelligenten Maschine als “Science Fiction” abzutun, könnte sich als schlimmster Fehler der Geschichte herausstellen, warnt Hawking in einem Artikel im Independent. Entwicklungen wie selbstfahrende Autos oder Apples digitaler Assistent Siri seien lediglich Symptome eines IT-Rüstungswettbewerbs, der von beispiellosen Investmentsangetrieben werde.

Die potenziellen Vorteile einer KI seien gewaltig: Da sämtliche Errungenschaften unserer Zivilisation auf der menschlichen Intelligenz beruhen, sei schlicht nicht abzusehen, was die Menschheit erreichen könne, wenn sie durch die Arbeit einer künstlichen Intelligenz unterstützt werde. Die Ausrottung von Krieg, Krankheit und Armut könnte in greifbare Nähe rücken, so Hawking.

Die Risiken seien jedoch nicht minder groß, gibt der theoretische Physiker zu bedenken. Es gebe keine fundamentalen Grenzen für die Entwicklung einer künstlichen Intelligenz. Kein physikalisches Gesetz würde Partikel daran hindern, sich so zu organisieren, so dass diese fortschrittlichere Berechnungen leisten könnten als menschliche Gehirne.

Anschließend sei ein “explosionsartiger” Wandel möglich, in dem Maschinen mit über-menschlicher Intelligenz ihre eigene Bauweise wiederholt verbessern und damit eine “Singularität” erreichen könnten. Dies sei vergleichbar mit dem, was der Hauptcharakter im gleichnamigen Johnny-Depp-Film als “Transzendenz” bezeichnet. Wir fühlen uns allerdings eher an Skynet und den “Terminator” erinnert.

Ausrottung des Krieges oder Alien-Invasion?

Eine solche KI wäre dazu in der Lage, Finanzmärkte zu überlisten, menschliche Führungspersonen zu manipulieren und sogar Waffen zu entwickeln, die wir nicht einmal verstehen könnten. Auf kurze Sicht sei der Einfluss von künstlicher Intelligenz davon abhängig, wer sie kontrolliert, während die langfristigen Auswirkungen davon abhängig seien, ob sie überhaupt kontrolliert werden könnten.

Das Konzept einer künstlichen Intelligenz habe daher das Potenzial, entweder das Beste oder das Schlechteste zu sein, was der Menschheit jemals passiert. Das hänge ganz davon ab, wie gut diese Technologie erforscht wird, um die unzähligen Vorteile und Risiken abzuwägen und sicherzustellen, dass das bestmögliche Ergebnis erreicht wird.

Abgesehen von einigen Instituten wie dem Cambridge Centre for the Study of Existential Risk oder dem Future of Life Institute stelle jedoch kaum jemand ernstzunehmende Nachforschungen zu diesem Thema an.

Hawking vergleicht dies mit einer nahenden Invasion von Außerirdischen: “Wenn eine fortschrittlichere, außerirdische Zivilisation uns eine Nachricht mit den Worten ‘Wir kommen in ein paar Jahrzehnten an’ schicken würde, würden wir dann einfach mit ‘OK, ruft kurz an, bevor ihr da seid, wir lassen die Lichter an’ antworten?

Wahrscheinlich nicht – doch genau so wird mehr oder weniger gerade mit der künstlichen Intelligenz verfahren.”

Video: Skynet. Die Übernahme

Quelle: gulli.com vom 05.05.2014

Empfohlene Artikel
- Advertisment -
Translate »