Den Unterschied kenne ich allerdings.
Matthias Pochmann » So 26. Mai 2013, 15:41 hat geschrieben:Es gibt inzwischen bereits funktionierende Quantencomputer - die sind nur noch nicht sehr leistungsfähig und instabil!
(Das ist nicht mehr nur Theorie)
Doch das ist es. Es werden verschiedene theoretische Konzepte experimentell getestet. Von einem funktionierenden, praxistauglichen Quantencomputer ist das noch sehr weit weg. Quantencomputer SIND heute noch Theorie.
Doch, auch das ist Theorie. Experimente haben nichts mit Praxistauglichkeit zu tun. Sie dienen lediglich der Überprüfung einer Theorie und/oder der Veranschaulichtung bestimmter Quantenzustände, ohne Veränderung der Messanordnung und der Ermittlung einer möglichen Umsetzung in der Praxis. Nicht umsonst nennt man derartiges Vorgehen auch Grundlagenforschung.
Matthias Pochmann » So 26. Mai 2013, 15:41 hat geschrieben:Darum geht es auch nicht - viel wichtiger ist, dass die Prozesse sehr viel schneller ablaufen!
... Das ist ein Quantensprung in der Entwicklung der Computertechnologie
(ein neues Paradigma)
Unsinn! Es geht eben NICHT primär nur um höhere Rechengeschwindigkeit, sondern auch um Problemlösungen. "Normale" digitale Computer sind in den letzten Jahren auch immer schneller geworden. Wo soll da einen neues Paradigma sein, nur weil man eine Möglichkeit gefunden hat, große Datenmengen (noch) schneller zu durchsuchen.
Ein neues Paradigma wäre, einen Computer zu entwickeln, der zu Problemlösungen fähig wäre.
Ja und? Für unsere gegenwärtigen Computer mussten auch erst "Verschlüsselungsverfahren"/Computersprachen entwickelt werden.
Matthias Pochmann » So 26. Mai 2013, 15:41 hat geschrieben:So in etwa kann man sich das vorstellen - nur weniger konkret - es geht um Supercomputer, die nicht nur einen Roboterkörper (Data) steuern werden, sondern Millionen davon!
--> Also Personalisierung ist nur ein kleiner Aspekt, der hier simuliert wird, um in Kontakt mit den Menschen zu treten.
Zunächst stellt sich die Frage, wozu wir Millionen von "Datas" brauchen, die von "einem" Supercomputer gesteuert werden und warum die mit Menschen in Kontakt treten sollten. Computer/Androiden sind keine Lebensform, sondern Maschinen. Wenn, dann steuern Menschen diese Maschinen, erteilen ihnen Befehle. Dazu bedarf es keines Bewusstseins und erst recht keines Selbstbewusstseins.
Um Menschen die Arbeit zu erleichtern, bedarf es KEINER Personalisierung von Maschinen.
Matthias Pochmann » So 26. Mai 2013, 15:41 hat geschrieben:Du musst bedenken - alle Satelliten - alle Kameras, alle wissenschaftlichen Daten, also alles, was in jedem Augenblick durch digitale Sinne erfasst wird, kann von einem solchen Selbsbewusstsein verarbeitet werden.
--> Das sprengt unser Konzept von Person
Nein, ich muss das NICHT bedenken, denn dieses Konzept, das der starken KI, macht Menschen überflüssig.
Zum Einen haben Maschinen keine Sinne, auch keine digitalen, sondern Sensoren und zum Anderen müssen Maschinen nichts selbständig verarbeiten, sondern speichern und abrufbereit halten. Für die Verarbeitung ist der Mensch zuständig - er bestimmt, was wie verarbeitet werden soll ==> Prinzip der schwachen KI.
Starke KI ist eh nur Spinnerei, denn so lange wir nicht wissen, wie menschliches Denken funktioniert, wie Denkprozesse ablaufen, es keine einheitliche Definition gibt WAS denn Intelligenz überhaupt ist, können wir auch keine intelligente Maschine bauen.
Matthias Pochmann » So 26. Mai 2013, 15:41 hat geschrieben:Das Problem mit dem Einlesen: Auf dem blog sind vor allem Themen aus dem letzten Teil - dort geht es um Potentiale der Menschheit - also um die Frage, was ist möglich!
... KI ist ein Potential der Menschheit - ich versuche das Thema ganz ohne moralische Wertung zu bearbeiten.
Ach ist es das? Ich muss Dich doch hoffentlich nicht selbst zitieren, Du weißt doch hoffentlich was Du geschrieben hast und daraus wird deutlich, dass es eben NICHT um Potentiale der Menschheit geht. Mensch und Maschine sind zwei völlig verschiedene Kategorien, die zu verschmelzen (vernetzen), ist eindeutig inhuman und menschenverachtend.
Wahrscheinlich liegt das an Deinem Menschenbild an sich. Ich kann mir nicht helfen, aber Dein permanentes Gerede von Transzendenz, in Verbindung mit Menschen, erweckt den Eindruck, dass Du Dich sehr stark an die philosphische Anthropologie Max Schelers anlehnst.
Matthias Pochmann » So 26. Mai 2013, 15:41 hat geschrieben:Das eigentliche Projekt hat eher weniger damit zu tun - hier geht es um ein nachhaltiges Gesellschaftsmodell als Antwort auf die Veränderungen im Informationszeitalter
Nachhaltiges Gesellschaftsmodell? Und dazu muss Mensch sein Menschsein aufgeben und Teil einer Maschine werden?
Nichts anderes ist Deine "Symbiose zwischen Mensch und KI". Damit hört der Mensch auf Mensch zu sein, er verliert seine Indentität, seine Personalität und Individualität.
Ich weiß nicht, was Dir daran erstrebenswert erscheint, Teil einer Maschine zu sein.
Reicht Dir Dein Gehirn nicht aus? Stört es Dich dass es zwischen wichtigen und unwichtigen Informationen unterscheidet und die unwichtigen einfach vergisst oder stört Dich, dass KEIN Mensch alles wissen kann (und auch gar nicht will).
Menschliche Personalität, Individualität und Identität stehen dem Informationszeitalter NICHT entgegen und dem steht auch NICHT entgegen, dass kein Mensch alles wissen kann, dass Menschen kommunizieren müssen.
Du solltest Dir mal Gedanken machen, was Dich am Menschen/am Menschsein stört, wenn Du es als erstrebenswert ansienst, mit Maschinen eine Symbiose einzugehen.
DAS würde mich nun wirklich mal interessieren. Was Dich zu solchen Gedankengängen antreibt.
Doch geht es. Ein Mensch der eine Symbiose mit einer Maschine eingeht, dessen Gehirn mit Maschinen und über diese Maschinen mit den Gehirnen anderer Menschen vernetzt wird, hört auf als Mensch/als Person zu existieren.
Matthias Pochmann » So 26. Mai 2013, 15:41 hat geschrieben:Auch widerspricht die Arbeit an einer sich selbst-entwickelnden künstlichen Intelligenz nicht den Menschenrechten.
--> Diese KI wird den Menschen das Leben vereinfachen - und eher von Vorteil für die Wahrung der Menschenrechte sein
Also doch das Prinzip der Starken KI.
Deine favorisierte Symbiose mit der/den KI verstößt gegen elementare Menschenrechte!
Du scheinst nicht zu wissen, was alles zu den Menschenrechten gehört.
Abhängikeit von Maschinen gehört NICHT dazu, aber genau dazu führen Deine Dystopien.
Was ist die Natur des Menschen?
Weißt Du, worüber sich Generationen von Philosophen die Köpfe zerbrachen und keine antwort fanden?
Der Mensch bringt kein Wissen hervor, er erarbeitet es sich, er sucht nach Erklärungen. Es gibt kein absolutes Wissen, sondern immer nur zeitkernig hinreichendes.
Es gibt kein Projekt Naturwissenschaft, weil es nicht "die Naturwissenschaft" gibt, sondern viele verschiedene naturwissenschaftliche Disziplinen, die sich auch noch verschiedener Methoden bedienen und daran kann auch kein "Informationszeitalter" etwas ändern. Die Leute meiner "Zunft" werden auch noch in 1000 Jahren, vorwiegend mit den Händen arbeiten und dreckige Hände haben.
Matthias Pochmann » So 26. Mai 2013, 15:41 hat geschrieben:--> Erst wenn es eine Simulation des gesamten Multiversums gibt - also das Multiversum ein zweites Mal als Simulation existiert
(und damit auch die Simultation dieser Simulation enthält) , ist ein Zuwachs an Rechengeschwindigkeit nicht mehr sinnvoll
Woher willst Du denn wissen, dass unser Universum Teil eines Multiversums ist?
Weißt Du mehr, als alle Astrophysiker und Physiker zusammen?
Und warum sollte ein Multiversum (wenn es das denn überhaupt gibt) simuliert werden, "errechne" werden kann?
Eine Simulation ist doch nur eine Krücke, wenn die Mathematik versagt.

Gegen die menschliche Dummheit sind selbst die Götter machtlos.
Moralische Entrüstung ist der Heiligenschein der Scheinheiligen