Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Moderator: Moderatoren Forum 4

Benutzeravatar
schokoschendrezki
Beiträge: 9183
Registriert: Mi 15. Sep 2010, 15:17
Benutzertitel: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon schokoschendrezki » Do 10. Aug 2017, 06:20

odiug hat geschrieben:(09 Aug 2017, 22:37)

Was wir von AI zu erwarten haben, kann man hier nachlesen:
http://www.dailymail.co.uk/sciencetech/ ... ching.html
Solange man sie noch abschalten kann, ist ja alles gut.
Schlimm wird es, wenn nicht. :eek:
Wobei ... so einen großen Unterschied zu heute macht das auch nicht. :(


Ich sehe das wesentlich entspannter. Tay ist vor allem der personifizierte - äh, "maschinisierte" - Konformismus. Aber auch wenn es natürlich nur Spekulation ist: So einfach wird der Bot nicht programmiert sein, dass er einfach nur Mehrheitsmeinungen nachplappert. Ich vermute, er sucht zunächst per Mustererkennung Konversationsstrukturen mit einem dynamischen Selbstorganisationspotenzial und einer strukturellen Abgrenzungsfähigkeit. Das ist alles andere als trivial. Vielleicht so wie aus verstreuten Einzelmessungen der Meeresströmungen, den Golfstrom herauszufiltern. Und versucht sich darin einzuordnen. Und hier auch nicht einfach als "Durchschnitt" sondern mit begrenztem Individualverhalten.

Ich sag mal zwei Sachen dazu: Als wenn man solches Verhalten nicht ebenso bei menschlichen Diskutanten erkennen könnte. Und: Als wenn dies nicht einfach und vor allem eine Reflexion schon bestehender Realität wäre.

Auch die Befürchtung, Bots könnten Börsencrashs oder politisches Chaos hervorrufen, teile ich nicht. Nicht, dass ich nicht wüsste, dass es Crashs und Chaos ja gibt und gab: Aber solche Bots weisen kein höheres Chaosstiftungspotenzial auf als Menschen.

Dass Bots eine bestehende politische oder gesellschaftliche Strömung verstärken können, ist trivialerweise richtig. Das tat aber vor bereits mehreren hundert Jahren die Erfindung des Buchdrucks auch. Wollen wir deshalb auf Bücher verzichten? Das Problem ist nicht der Buchdruck sondern die Chance, die sich einem Hetzer bietet, damit sein agressives Potenzial zu verbreiten. Der "Hexenhammer" und ähnliches waren eine der ersten Bücher, die durch den Buchdruck weite Verbreitung fanden und die maßgeblich zum Umsichgreifen der Hexenverfolgung beitrugen. Das Beispiel zeigt, dass das allgemeinere Problem nicht erst mit selbstlernenden Algorithmen und künstlichen Bots in der Welt ist.
"Ich kann keine Nation lieben, ich kann keinen Staat lieben, ich kann nur meine Freunde lieben." Hannah Arendt
Benutzeravatar
Alter Stubentiger
Beiträge: 2015
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » Do 10. Aug 2017, 10:59

schokoschendrezki hat geschrieben:(09 Aug 2017, 22:26)

Bei denen, die sich schon jetzt von ihrem TV-Gerät sagen lassen, was sie schauen sollen, ist diese Angst auch berechtigt. "Autonomie" heißt wörtlich "Selbstbestimmtheit". Wer ein (möglichst weitgehend) selbstbestimmtes Leben führt, benutzt Technik einfach.

Auch "selbstlernende", dynamische, selbstreflektierende, selbstoptimierende Programmstrukturen im allgemeinen, sind letztlich nichts anderes als effektivere Methoden zur Komplexitätserschließung als statische Programmierung. Sie führen nicht grundsätztlich aus der Klasse der Algorithmen hinaus, die durch binär arbeitende Maschinen erstellbar sind. "Lernen" im eigentlichen Sinne ist alles andere als identisch mit "Selbstoptimierung".


Jo. Kann man so sagen. So ich es verstehe kann eine KI nur weitere Programme verbessern/erstellen. Sie kann aber sich selbst nicht weiter entwickeln da Programm und Daten in heutigen Rechnern immer streng voneinander getrennt sind. Oder habe ich da was falsch verstanden?
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Nomen Nescio
Moderator
Beiträge: 9849
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Nomen Nescio » Do 10. Aug 2017, 11:10

schokoschendrezki hat geschrieben:(10 Aug 2017, 07:20)

Auch die Befürchtung, Bots könnten Börsencrashs oder politisches Chaos hervorrufen, teile ich nicht. Nicht, dass ich nicht wüsste, dass es Crashs und Chaos ja gibt und gab: Aber solche Bots weisen kein höheres Chaosstiftungspotenzial auf als Menschen.

ohne das eingreifen wenn kursen abstürzen wäre ein crash nicht nur wahrscheinlich, sondern sicher passiert.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Shellsort
Beiträge: 58
Registriert: Fr 28. Jul 2017, 18:54

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Shellsort » Do 10. Aug 2017, 11:43

Alter Stubentiger hat geschrieben:(09 Aug 2017, 18:12)
Für Algorithmen ohne ausreichende Sensorik ist es aber unendlich schwer.

Nehmen wir einmal an, du (als intelligentes Lebewesen)bist in einem Raum eingesperrt, aus dem du fliehen musst. Dazu musst du nur zur Türe gehen und sie öffnen.

Nur dass du keine deiner Sinne benutzen darfst.
Da haben wir die selbe Situation.
Meine Fragen sind nur Fragen, und gegen niemanden gerichtet.
Auch wenn sie blöd klingen...
Benutzeravatar
schokoschendrezki
Beiträge: 9183
Registriert: Mi 15. Sep 2010, 15:17
Benutzertitel: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon schokoschendrezki » Do 10. Aug 2017, 11:59

Alter Stubentiger hat geschrieben:(10 Aug 2017, 11:59)

Jo. Kann man so sagen. So ich es verstehe kann eine KI nur weitere Programme verbessern/erstellen. Sie kann aber sich selbst nicht weiter entwickeln da Programm und Daten in heutigen Rechnern immer streng voneinander getrennt sind. Oder habe ich da was falsch verstanden?

Naja, sind sie eigentlich nicht. Der Trick bei den selbstlernenden Programmen besteht ja gerade darin, dass sie selbst zu veränderlichen Daten gemacht werden und eben nicht mehr nur statisch irgendwelche getrennten Daten verändern (sondern sich selbst).

Der wesentliche Punkt besteht (meiner Ansicht nach) darin, dass auch sie keine spontanen, unlogischen, einer gegebenen Optimierungsaufgabe widersprechenden Aktionen machen könne, weil sie eben binär und deterministisch bleiben. Auch bei einem selbstlernendes Programm, das einfach mal so den Wasserhahn aufdreht, wenn im Keller das Wasser ansteigt, würde jeder Ingenieur dir einen Vogel zeigen, wenn Du behauptest, genau darin bestünde die prinzipielle Überlegenheit (analoger) Lebewesen. Wobei analog im Wesentlichen meint: Fähig zur Erzeugung eines "echten" Indeterminismus.
"Ich kann keine Nation lieben, ich kann keinen Staat lieben, ich kann nur meine Freunde lieben." Hannah Arendt
Benutzeravatar
Perdedor
Beiträge: 3229
Registriert: Do 5. Jun 2008, 22:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Perdedor » Do 10. Aug 2017, 17:20

schokoschendrezki hat geschrieben:Nich die Komlexität, Speicherfähigkeit und Operationsgeschwindigkeit digitaler Maschinen unterscheidet sich grundlegend (und, da rein theoretisch und logisch auch für immer) vom menschlichen Gehirn. Sondern die Frage Determinismus (digitaler Computer) und Indeterminismus (Mensch).


Es ist umstritten, ob der Nichtdeterminismus der Quantenmechanik im Gehirn eine Rolle spielt.
Das Problem sind in der Tat eher die herkömmlichen Rechnerstrukturen (von Neumann), mit denen eine Simulation des Gehirns mittels Algorithmen einfach zu aufwändig ist. Besser geeignet sind neuromorphe Chips, wie sie z.B. beim Human Brain Project im großen Stil untersucht werden.
https://de.wikipedia.org/wiki/Neuromorpher_Chip
Es ist absehbar, dass diese bereits mittelfristig Teile des menschlichen neuronalen Systems ersetzen können (künstliche Retina...). Beim HBP sind Teile von Rattenhirnen simuliert worden (was allerdings bereits vorher mit herkömmlichen Strukturen gelang).

Zur Eingangsfrage:
Die eher abwartende Haltung in der öffentlichkeit hängt wohl vor allem damit zusammen, dass die SciFi Autoren der Vergangenheit zu optimistisch waren, was die maschinelle Intelligenz anbelangt. Die konkreten, für die Allgemeinheit greifbaren Fortschritte sind überschaubar. Daher herrscht wohl eine gewisse Desillusionierung vor, was ich aber nicht als "Unterschätzung" bezeichnen würde.
Arbeit. Leben. Zukunft.
Benutzeravatar
schokoschendrezki
Beiträge: 9183
Registriert: Mi 15. Sep 2010, 15:17
Benutzertitel: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon schokoschendrezki » Do 10. Aug 2017, 20:15

Perdedor hat geschrieben:(10 Aug 2017, 18:20)

Es ist umstritten, ob der Nichtdeterminismus der Quantenmechanik im Gehirn eine Rolle spielt.
Das Problem sind in der Tat eher die herkömmlichen Rechnerstrukturen (von Neumann), mit denen eine Simulation des Gehirns mittels Algorithmen einfach zu aufwändig ist. Besser geeignet sind neuromorphe Chips, wie sie z.B. beim Human Brain Project im großen Stil untersucht werden.
https://de.wikipedia.org/wiki/Neuromorpher_Chip
Es ist absehbar, dass diese bereits mittelfristig Teile des menschlichen neuronalen Systems ersetzen können (künstliche Retina...). Beim HBP sind Teile von Rattenhirnen simuliert worden (was allerdings bereits vorher mit herkömmlichen Strukturen gelang).

Ich habe keinen Zweifel daran, dass es auf der Basis von Neurochips schon in Kürze etwa künstliche Augen mitsamt künstlichen Sehzentren geben wird, die die Leistungsfähigkeit des menschlichen Seh-, Erkennungs und vor allem Zuordnungs-, Klassifikations-, Musterkennungs-Systems bei weitem übertreffen. Aber genauso wie es es fraglich ist, ob der Nichtdeterminismus der QT im Gehirn eine Rolle spielt, scheint es mir fraglich, ob Gedanken ab einer gewissen Abstraktionsstufe (ich meine wirklich Gedanken und nicht Grundemotionen wie Angst oder Freude) tatsächlich lokalisierbar, materiell eingrenzbar, neuronal zuordbar sind (selbst wenn sie realiter sein sollten). Aber vielleicht hängt ja beides sogar zusammen. Dass also - mal ganz schwammig formuliert - an den Kipp-Punkten eines deterministischen Chaos Quantenprozesse eben gerade die "Flügelschläge des Schmetterlings" sind, die den Orkan in Amerika - sprich, den endgültig kondensierten Gedanken, hervorbringen.
"Ich kann keine Nation lieben, ich kann keinen Staat lieben, ich kann nur meine Freunde lieben." Hannah Arendt
Benutzeravatar
Nomen Nescio
Moderator
Beiträge: 9849
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Nomen Nescio » Do 10. Aug 2017, 20:45

schokoschendrezki hat geschrieben:(10 Aug 2017, 21:15)

scheint es mir fraglich, ob Gedanken ab einer gewissen Abstraktionsstufe (ich meine wirklich Gedanken und nicht Grundemotionen wie Angst oder Freude) tatsächlich lokalisierbar, materiell eingrenzbar, neuronal zuordbar sind (selbst wenn sie realiter sein sollten).

ja, vor einigen monaten gabs darüber ein bericht. aber, und das ist das problem, was stellen sie dar. der vergleich damals lautete »wir brauchen einen viel großeren stein von rosetta um jene sprache zu entziffern«.
was mich tröstet, ist daß in den 50 jahren - als watson und cricks die struktur des DNA-molekuls entdeckt hatten - auch gedacht wurde daß man es aber nie entziffern könnte. und um den siebziger jahre hatte man entdeckt, daß es nonsens codonen gab. und siehe mal wie weit sie jetzt sind.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Benutzeravatar
Perdedor
Beiträge: 3229
Registriert: Do 5. Jun 2008, 22:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Perdedor » Do 10. Aug 2017, 20:50

schokoschendrezki hat geschrieben:Aber genauso wie es es fraglich ist, ob der Nichtdeterminismus der QT im Gehirn eine Rolle spielt, scheint es mir fraglich, ob Gedanken ab einer gewissen Abstraktionsstufe (ich meine wirklich Gedanken und nicht Grundemotionen wie Angst oder Freude) tatsächlich lokalisierbar, materiell eingrenzbar, neuronal zuordbar sind (selbst wenn sie realiter sein sollten).


Was heißt "zuordbar"? Gedanken sind natürlich Prozesse bei denen sehr viele Neuronen zusammenspielen. Insofern sind sie nicht an einem bestimmten Punkt lokalisierbar. Materiell eingrenzbar sind sie natürlich. Nämlich auf den menschlichen Körper.

schokoschendrezki hat geschrieben:Dass also - mal ganz schwammig formuliert - an den Kipp-Punkten eines deterministischen Chaos Quantenprozesse eben gerade die "Flügelschläge des Schmetterlings" sind, die den Orkan in Amerika - sprich, den endgültig kondensierten Gedanken, hervorbringen.


Ja, vielleicht. Aber der Clou bei dem Schmetterling ist ja gerade, dass es in diesem Beispiel keine Quantenprozesse braucht. Deterministisches Chaos ist deterministisch und lässt sich am Computer simulieren. Beim Wetterbeispiel ist das Problem, dass auf absehbare Zeit kein Computer leistungsfähig genug sein wird, die gesamte Atmosphäre zu simulieren. Das Gehirn ist im Vergleich dazu wesentlich kleiner.
Arbeit. Leben. Zukunft.
Benutzeravatar
Alter Stubentiger
Beiträge: 2015
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » So 13. Aug 2017, 14:14

Perdedor hat geschrieben:(10 Aug 2017, 21:50)

Was heißt "zuordbar"? Gedanken sind natürlich Prozesse bei denen sehr viele Neuronen zusammenspielen. Insofern sind sie nicht an einem bestimmten Punkt lokalisierbar. Materiell eingrenzbar sind sie natürlich. Nämlich auf den menschlichen Körper.



Ja, vielleicht. Aber der Clou bei dem Schmetterling ist ja gerade, dass es in diesem Beispiel keine Quantenprozesse braucht. Deterministisches Chaos ist deterministisch und lässt sich am Computer simulieren. Beim Wetterbeispiel ist das Problem, dass auf absehbare Zeit kein Computer leistungsfähig genug sein wird, die gesamte Atmosphäre zu simulieren. Das Gehirn ist im Vergleich dazu wesentlich kleiner.

Es ist auf jeden Fall ein weiter Weg. Ich fühle mich in meiner Ansicht bestärkt das die Hype um die Algorithmen doch ziemlich überzogen ist. Wie eben die früheren Bestrebungen mit spezialisierten Programmiersprachen wie Lisp.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
immernoch_ratlos
Beiträge: 1105
Registriert: So 10. Apr 2016, 16:59

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon immernoch_ratlos » So 13. Aug 2017, 21:13

Um wenigstens eine inzwischen sehr aktiven "AI" auf der Spur zu bleiben, habe ich es mal mit : 2017:"Watson in der Medizin" "Ungefähr 62 Ergebnisse" erhalten.

Wenn auch "schon" mehr als drei Jahre alt (14.02.2014) enthält dieser Artikel der FAZ Gläserner Patient Der Computer ersetzt den Arzt neben den Ängsten aller Beteiligten auch eine Reihe sehr interessanter Daten an denen "Mensch" schlicht nichtmehr "vorbeikommt" und deren Verarbeitung ohne leistungsfähige Algorithmen und immer bessere Hardware längst vieles nicht einmal im Ansatz möglich wäre.
FAZ hat geschrieben:...Echtzeitdaten aus dem Körper werden immer wertvoller. Jeden Tag werden allein im amerikanischen Gesundheitssektor mittlerweile fünfzehn Petabyte Daten verarbeitet. Das ist eine Eins mit fünfzehn Nullen oder etwa achtmal so viele Daten, wie von Google Earth insgesamt gemanagt werden. Und mit jedem Projekt, das die Datensammlung weiter vernetzt, wachsen die Datenpools exponentiell: Die „Konvergenz“ der Sensoren füttert nach den Vorstellungen ihrer Erfinder eine medizinische Informationsbörse: Das Auto sammelt bald Daten über Herz- und Atemfrequenz, die Uhr ermittelt Schrittfrequenz und Bewegungsmuster, im Bad werden Zucker- und Blutwerte, unter der Matratze wird das Schlafverhalten erfasst.
Auch typisch für D :
FAZ hat geschrieben:Nirgends, das zeigt die Accenture-Studie unmissverständlich, sei der Widerstand so groß wie in Deutschland - und zwar auf professioneller Seite: siebzig Prozent der Patienten, aber nur zwölf Prozent der Ärzte wollen Zugang zu elektronischen Patientenakten mit den entsprechenden Daten.

Oder nehmen wir die „Silver Surfer“, also die über 65 Jahre alten, internetaffinen Senioren. Zwei Drittel im Land wollen der Umfrage zufolge „ihre Gesundheit durch Digitalisierung und E-Health-Lösungen verstärkt selbst managen“, ein Viertel zeichnet angeblich schon heute die eigene Gesundheitshistorie auf, ein Drittel dokumentiert bereits regelmäßig Gesundheitswerte wie Gewicht und Blutdruck im eigenen Computer.
Einmal gesammeltes und verifiziertes Wissen bleibt erhalten - im Gegensatz zum menschlichen Träger, mit dessen Tod all sein Wissen, all seine Erfahrungen unwiederbringlich verloren gehen, ist der Inhalt einer Datenbank deutlich überlebensfähiger. Kommt nun die inzwischen verfügbare AI dazu und das "zwischendrin Verstehen" von Zusammenhängen wie sie das Watson System inzwischen nachweislich aufweist, ist die wechselseitige Beeinflussung zwischen Mensch und Maschine "irgendwo" ein Akt des Verstehens der einmal implementiert - gleichgültig durch wen - nichtmehr rückgängig gemacht werden kann. Es sei den "man" zerstört das gesamte System.

So ist der Übergang fließend und dies :
FAZ hat geschrieben:...„Kraut und Rüben“, so hat Sonja Zillner von Siemens die Erkenntnisse zusammengefasst, die sie in einer Auftragsstudie der Europäischen Kommission hinsichtlich der Datenstandards ermittelt hat. Mit anderen Worten: Gemessen wird, verstanden wird nichts. Mit bis zu siebzig Software-Applikationen wird so ein Krankenhaus heute betrieben, und jede Computeranwendung hat ihr eigenes Vokabular. Genominformationen, Laborwerte, Röntgenbilder, Verschreibungen - schon die medizinischen Basisdaten, soweit sie erfasst werden, lassen sich nicht ohne Weiteres zusammenführen und nach den annoncierten Effizienzkriterien sinnvoll nutzen. Kein Ökosystem, eher schon ein Flickenteppich von Systemen. Von Harmonisierung ist die Rede und von Datenverdichtung, von „toxischen Daten“ gar, die den Arzt eher verwirren, als eine Entscheidungshilfe sind. Trotzdem bleibt man dabei: „Galileos Programm muss weiterlaufen“, forderte Markus Löffler von der Universität Leipzig. Was messbar ist, muss gemessen und bezeichnet werden.
wird dann der Vergangenheit angehören. Mit zunehmender Vernetzung nicht nur dieser Systeme unter der "Haube" von ausgefeilten Systemen mit ständig optimierten und auch selbst optimierenden Algorithmen, mehr (zunächst) theoretische Macht anhäufen. Wer will dann noch klar entscheiden wer tatsächlich Entscheidungen trifft ? Etwas, zu was angeblich nur Menschen fähig sein sollen. Gerade Sapiens, dessen Hirnleistung die allermeiste Zeit mit selbsterzeugten Mythen beschäftigt ist, der über keinerlei "Algorithmen" verfügt, welche sein eigenes Wohl ohne Wehe auch nur im Ansatz in den Vordergrund des Handelns stellt.

Würde man einen Algorithmus entwickeln, der z.B. dieses Forum auf Mythen (Religion - Ideologie - usw.) untersucht und alle solcherart substanzlosen Inhalte verwerfen würde, wie viel oder schlimmer wie wenig vom derzeitigen Inhalt bliebe da übrig ? Nun das tut wohl niemand, doch was, wenn sich eine "Watson-Ableger" z.B der Rechtswissenschaft annimmt ? Urteile und alles was damit zusammenhängt, ein weiteres Feld für kognitive AI ....
"Wenn der Wind der Veränderung weht, bauen die einen Mauern und die anderen Windmühlen." (aus China)
Benutzeravatar
schokoschendrezki
Beiträge: 9183
Registriert: Mi 15. Sep 2010, 15:17
Benutzertitel: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon schokoschendrezki » So 13. Aug 2017, 21:34

Perdedor hat geschrieben:(10 Aug 2017, 21:50)

Was heißt "zuordbar"? Gedanken sind natürlich Prozesse bei denen sehr viele Neuronen zusammenspielen. Insofern sind sie nicht an einem bestimmten Punkt lokalisierbar. Materiell eingrenzbar sind sie natürlich. Nämlich auf den menschlichen Körper.



Ja, vielleicht. Aber der Clou bei dem Schmetterling ist ja gerade, dass es in diesem Beispiel keine Quantenprozesse braucht. Deterministisches Chaos ist deterministisch und lässt sich am Computer simulieren.

Eben. Dass Computer mit dem deterministischen Chaos des Wettergeschehens noch lange überfordert sein werden, ist ja nur ein technischer Aspekt. Indeterminismus ist nicht einfach eine (erreichbare) Grenze wachsender Komplexität von deterministischem Chaos. Dass die Welt indeterministisch sein muss, ist auch gar keine naturwissenschaftliche oder mathematisch-logische sondern eine philosophisch-ontologische Erkenntnis. Auch eine noch so komplexe deterministische Welt wäre letztendlich ein aufgezogenes Uhrwerk. Zu welchem Zweck? Mit welchem Ziel? Es ist doch bemerkenswert, dass ausgerechnet mit dem Determinismus (Newton usw.) Metaphysik und Religion Einzug ins Weltbild hält. Die Planetenbahnen waren schon immer auch Sinnbild für göttliches Tun.
"Ich kann keine Nation lieben, ich kann keinen Staat lieben, ich kann nur meine Freunde lieben." Hannah Arendt
Benutzeravatar
Perdedor
Beiträge: 3229
Registriert: Do 5. Jun 2008, 22:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Perdedor » Mo 14. Aug 2017, 18:21

schokoschendrezki hat geschrieben:Dass die Welt indeterministisch sein muss, ist auch gar keine naturwissenschaftliche oder mathematisch-logische sondern eine philosophisch-ontologische Erkenntnis.


Es führt vielleicht etwas weit vom Thema weg, aber hier muss ich meine Bedenken vortragen.
Dass die Welt indeterministisch ist, ist eine rein naturwissenschaftliche Erkenntnis (Quantenmechanik, Unschärferelation, Bellsche Ungleichung...). Gäbe es diese Erkenntnis nicht, sähe ich keinen Grund das Uhrwerk-Bild zu verwerfen. Gerade das Schmetterlingsbeispiel zeigt ja, dass man den Unterschied im Makroskopischen ohnehin nicht feststellen würde. Die QM sehen wir nur im Kleinsten wirken. Unsere täglichen Erfahrungen sehen mit und ohne Indeterminismus gleich aus.

schokoschendrezki hat geschrieben:Die Planetenbahnen waren schon immer auch Sinnbild für göttliches Tun.


Aber eben nur bis Newton & Co. Danach folgten sie aus den Gesetzen der Gravitation.
Arbeit. Leben. Zukunft.
Benutzeravatar
schokoschendrezki
Beiträge: 9183
Registriert: Mi 15. Sep 2010, 15:17
Benutzertitel: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Beitragvon schokoschendrezki » Mo 14. Aug 2017, 21:40

Perdedor hat geschrieben:(14 Aug 2017, 19:21)

Es führt vielleicht etwas weit vom Thema weg, aber hier muss ich meine Bedenken vortragen.
Dass die Welt indeterministisch ist, ist eine rein naturwissenschaftliche Erkenntnis (Quantenmechanik, Unschärferelation, Bellsche Ungleichung...). Gäbe es diese Erkenntnis nicht, sähe ich keinen Grund das Uhrwerk-Bild zu verwerfen. Gerade das Schmetterlingsbeispiel zeigt ja, dass man den Unterschied im Makroskopischen ohnehin nicht feststellen würde. Die QM sehen wir nur im Kleinsten wirken.

Die Quantenmechanik als Naturwissenschaft bestätigt wissenschaftlich, was Philosophen auch ohne Doppelspaltexperiment erahnen können. Und wenn sie wirklich nur im Kleinsten wirkt und im Makroskopischen nicht, dann existieren halt Mikro- und Makrowelt nebeneinander und getrennt. Daran können aber auch bekannte Physiker nicht glauben. Der Nobelpreisträger von 2003, Anthony Legett meinte halb im Spaß, halb im Ernst, in 200 Jahren werde man "Studenten am Doppelspalt interferieren lassen". Man kann nicht glauben oder man will vielleicht auch nicht glauben, dass die Makrowelt vollkommen deterministisch ist. Ich auch nicht! Und "nicht feststellen können" ist immer noch etwas anderes als "nicht sein".

Für eine vollkommen deterministische Welt oder auch abgetrennte Makrowelt wäre das Uhrwerk auch kein "Bild" sondern diese Welt wäre ein Uhrwerk. Mit der Konsequenz, dass man - zumindest theoretisch - jeden zukünftigen Zustand ausrechnen könnte. Und damit würde die Zeit als unabhängige Dimension de facto verschwinden. Denn wenn in jedem gegebenen Zustand alle zukünftigen Zustände enthalten sind, lässt sich die Zeit ebensogut auf einen Punkt zusammenziehen. Das wäre die Konsequenz einer vollkommen deterministischen Welt.
"Ich kann keine Nation lieben, ich kann keinen Staat lieben, ich kann nur meine Freunde lieben." Hannah Arendt
Benutzeravatar
Perdedor
Beiträge: 3229
Registriert: Do 5. Jun 2008, 22:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Perdedor » Di 15. Aug 2017, 19:49

schokoschendrezki hat geschrieben:Die Quantenmechanik als Naturwissenschaft bestätigt wissenschaftlich, was Philosophen auch ohne Doppelspaltexperiment erahnen können.


Ich weiß von keinem einzigen Philosophen, der vor der Entdeckung der QM auch nur annähernd deren Bedeutung und Implikationen erahnt hat. Das Bild des Indeterminismus war lediglich diffus vorhanden, meist in der Form von unscharfen Definitionen des freien Willens oder der Allmacht eines Gottes (beides historisch nur bedingt mit dem Determinismus vereinbar). Das Konzept der Unbestimmtheit, als fundamentale Eigenschaft der Welt wurde meines Wissens nie diskutiert.

schokoschendrezki hat geschrieben:Und wenn sie wirklich nur im Kleinsten wirkt und im Makroskopischen nicht, dann existieren halt Mikro- und Makrowelt nebeneinander und getrennt.


Nein, so ist es gerade nicht. In der Makrowelt sind die Auswirkungen der QM lediglich verwaschen, so dass man sie nicht mehr wahrnimmt (siehe "Dekohärenz"). Von Weitem betrachtet ergeben die Pixel des Monitors auch ein kontinuierliches Bild.
Die QM gilt immer und überall. Die Makrowelt lässt sich in sehr guter Näherung aber klassisch beschreiben.

schokoschendrezki hat geschrieben:Und "nicht feststellen können" ist immer noch etwas anderes als "nicht sein".


Genau. Und darum ging es. In der Makrowelt können wir keinen Indeterminismus belegen. Ob die Natur im Mikroskopischen Indeterminisisch ist, ist für diese Feststellung irrelevant. Die QM liefert einen Mechanismus der der Makrowelt immer klassisch erscheinen lässt.

schokoschendrezki hat geschrieben:Denn wenn in jedem gegebenen Zustand alle zukünftigen Zustände enthalten sind, lässt sich die Zeit ebensogut auf einen Punkt zusammenziehen.


Theoretisch ja, aber in der Praxis macht die Nichtlinearität (-> Chaos) das unmöglich. Und daher macht es eben keinen Unterschied, ob die Welt fundamental deterministisch ist, oder nicht. Kurz:
Fundamentaler Determinismus -> Chaos -> Nicht exakt berechenbar
Fundamentaler Indeterminismus -> Nicht exakt berechenbar
Für uns macht es keinen Unterschied.

Irgendwie kommen wir immer aufs selbe Thema... ;)
Um vielleicht noch die Kurve zu kriegen, stelle ich fest, dass neuromorphe Prozessoren ohne Indeterminismus die Prozesse in Nervenzellen reproduzieren können.
Arbeit. Leben. Zukunft.
Benutzeravatar
Nomen Nescio
Moderator
Beiträge: 9849
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Nomen Nescio » Di 15. Aug 2017, 20:25

Perdedor hat geschrieben:(15 Aug 2017, 20:49)

Um vielleicht noch die Kurve zu kriegen, stelle ich fest, dass neuromorphe Prozessoren ohne Indeterminismus die Prozesse in Nervenzellen reproduzieren können.

kannst du das erklären? denn da kann ich dich nicht folgen.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Benutzeravatar
Perdedor
Beiträge: 3229
Registriert: Do 5. Jun 2008, 22:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Perdedor » Di 15. Aug 2017, 20:54

Nomen Nescio hat geschrieben:kannst du das erklären? denn da kann ich dich nicht folgen.


Es ging in diesem Strang ja um die Fähigkeiten von selbstlernenden Algorithmen und weitergehend um die Möglichkeit einer vollständigen Simulation des menschlichen Gehirns. Nun ist es so, dass die selbstlernenden Algorithmen, die auf "herkömmlichen" Rechnerstrukturen (von Neumann) laufen mit ganz erheblichen Kapazitätsproblemen konfrontiert sind, wenn sie komplexere Prozesse implementieren sollen, als einfache Bilder-, Spracherkennung oder Ähnliches. Das geht soweit, dass gefragt wird, wie realistisch es überhaupt sein kann, komplexe Gedankenprozesse in einer solchen Struktur zu simulieren.
Eine alternative Herangehensweise ist die Verwendung von sog. neuromorphen Chips:
https://de.wikipedia.org/wiki/Neuromorpher_Chip
Diese sind einem Nervensystem in vieler Hinsicht sehr ähnlich, so dass sie komplexere neuronale Prozesse wesentlich effizienter simulieren können. U.A. beim "Human Brain Project" werden diese Ansätze verfolgt.
Im Zusammenhang mit meiner (ewigen ;) ) Diskussion mit @schokoschendrezki fügte ich noch hinzu, dass diese Neurochips deterministisch sind.
Arbeit. Leben. Zukunft.
Benutzeravatar
schokoschendrezki
Beiträge: 9183
Registriert: Mi 15. Sep 2010, 15:17
Benutzertitel: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon schokoschendrezki » Mi 16. Aug 2017, 06:16

Perdedor hat geschrieben:(15 Aug 2017, 20:49)

Ich weiß von keinem einzigen Philosophen, der vor der Entdeckung der QM auch nur annähernd deren Bedeutung und Implikationen erahnt hat. Das Bild des Indeterminismus war lediglich diffus vorhanden, meist in der Form von unscharfen Definitionen des freien Willens oder der Allmacht eines Gottes (beides historisch nur bedingt mit dem Determinismus vereinbar). Das Konzept der Unbestimmtheit, als fundamentale Eigenschaft der Welt wurde meines Wissens nie diskutiert.

Ich glaube, das ist nur die halbe Wahrheit. Der "Laplacesche Dämon", die Vorstellung einer absolut deteministischen Welt wurde zwar letzendlich erst von Physik und speziell Quantentheorie widerlegt und war auch irgendwo eine Zusammenfassung bisheriger Physik-Geschichte. Der Begriff tauchte aber erstmalig 1814 im Vorwort eines rein philosophischen Werks (von Laplace) auf. Und man kann nicht über Determinismus philosophieren ohne das Gegenbild des Indeterminismus dabei mitzudenken. Auch wenn man dieses Gegenbild (zunächst) verwirft.
Nein, so ist es gerade nicht. In der Makrowelt sind die Auswirkungen der QM lediglich verwaschen, so dass man sie nicht mehr wahrnimmt (siehe "Dekohärenz"). Von Weitem betrachtet ergeben die Pixel des Monitors auch ein kontinuierliches Bild.
Die QM gilt immer und überall. Die Makrowelt lässt sich in sehr guter Näherung aber klassisch beschreiben.
...
Genau. Und darum ging es. In der Makrowelt können wir keinen Indeterminismus belegen. Ob die Natur im Mikroskopischen Indeterminisisch ist, ist für diese Feststellung irrelevant. Die QM liefert einen Mechanismus der der Makrowelt immer klassisch erscheinen lässt.
...
Theoretisch ja, aber in der Praxis macht die Nichtlinearität (-> Chaos) das unmöglich. Und daher macht es eben keinen Unterschied, ob die Welt fundamental deterministisch ist, oder nicht. Kurz:
Fundamentaler Determinismus -> Chaos -> Nicht exakt berechenbar
Fundamentaler Indeterminismus -> Nicht exakt berechenbar
Für uns macht es keinen Unterschied.
...
Irgendwie kommen wir immer aufs selbe Thema... ;)
Um vielleicht noch die Kurve zu kriegen, stelle ich fest, dass neuromorphe Prozessoren ohne Indeterminismus die Prozesse in Nervenzellen reproduzieren können.

Messtechnisch macht es keinen Unterschied. Und mir ist andererseits schon klar, dass der Begriff der "Messung" in der Physik fundamental und nicht einfach nur technisch ist.

Aber gerade diese Diskussion ist eine der wichtigen Belege für mich, dass Philosophie und speziell vor allem Ontologie (Seins-Philosophie, Metaphysik) nicht einfach nur Quasselei oder abstraktes Gedankenspiel sondern notwendiger und unersetzbarer Teil der menschlichen Erkenntnisfähigkeit ist.
"Ich kann keine Nation lieben, ich kann keinen Staat lieben, ich kann nur meine Freunde lieben." Hannah Arendt
Benutzeravatar
Perdedor
Beiträge: 3229
Registriert: Do 5. Jun 2008, 22:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Perdedor » Mi 16. Aug 2017, 12:34

schokoschendrezki hat geschrieben:Und man kann nicht über Determinismus philosophieren ohne das Gegenbild des Indeterminismus dabei mitzudenken.


Schlicht als Verneinung. Ich weiß aber von keinem Philosophen, der das vor der QM durchdiskutiert hätte. Die QM geht aber noch weiter. Die Unbestimmtheit, also die Notwendigkeit einer nichtrealistischen Beschreibung der Welt, hat meines Wissen niemand vorher auch nur geahnt. Das erklärt auch die Ablehnung, selbst von Genies wie Einstein, die die QM erfahren musste: Das durch die QM als notwendig erkannte Weltbild ist vollkommen neu und man konnte auf keine Erfahrungen aus der abendländischen Philisophietradition zurückgreifen.

schokoschendrezki hat geschrieben:Aber gerade diese Diskussion ist eine der wichtigen Belege für mich, dass Philosophie und speziell vor allem Ontologie (Seins-Philosophie, Metaphysik) nicht einfach nur Quasselei oder abstraktes Gedankenspiel sondern notwendiger und unersetzbarer Teil der menschlichen Erkenntnisfähigkeit ist.


Natürlich benötigt man allein für die Definition von Naturwisenschaften eine gewisse Menge Metaphysik. Wenn Popper bspw Falisfizierbarkeit fordert, begründet er das ja nicht über die Naturwissenschaften, sondern umgekehrt. Sie ist eine Voraussetzung für die Naturwissenschaft. Durch die Erkenntnisse der QM mussten philosophischen Grundlagen entsprechend angepasst werden.
Historisch betrachtet gingen die naturwissenschaftlichen Erkenntnisse aber der metaphysischen Einordnung voraus.
Arbeit. Leben. Zukunft.
Benutzeravatar
schokoschendrezki
Beiträge: 9183
Registriert: Mi 15. Sep 2010, 15:17
Benutzertitel: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon schokoschendrezki » Do 17. Aug 2017, 09:18

Perdedor hat geschrieben:(16 Aug 2017, 13:34)
Schlicht als Verneinung. Ich weiß aber von keinem Philosophen, der das vor der QM durchdiskutiert hätte. Die QM geht aber noch weiter. Die Unbestimmtheit, also die Notwendigkeit einer nichtrealistischen Beschreibung der Welt, hat meines Wissen niemand vorher auch nur geahnt.

Ich wüsste auch von keinem. Die Philosophen hatten "Indeterminismus" vor allem im Zusammenhang mit der Frage des Freien Willens durchdacht. Dies hat aber mit dem physikalischen Indeterminismus der QM wenig zu tun. Es ist eine andere Frage.

Auch die (seit der Antike bestehende) Dialektik in der Philosophie ist eine Methode der Erkenntnisgewinnung, indem sie aus These und Antithese eine Synthese herzustellen versucht. Bei Hegel allerdings wird diese Dialektik der Wissensgewinnung (wenn ichs recht verstanden habe) gewissermaßen wieder zurückprojiziert auf die Realität. Dialektik ist für Hegel auch eine Seinsweise der Realität und nicht nur eine Methode des Denkens.

Damit würde die Hegelsche Dialektik auch mit dem Welle-Teilchen Dualismus keine Schwierigkeiten haben, denn der jeweilige Meßprozeß, der entweder Teilchen oder Wellen nachweist, unterscheidet sich eben in der Hinsicht auf den Meßprozeß selbst. Beide Aussagen sind wahr und wären auf einer höheren Stufe zu vereinen, wie es z.B. der Formalismus der Quantenphysik auch tut. Für Hegel ist dieses Denken jedoch nicht nur bloßes Denken, es ist zugleich eine reale Eigenschaft der Dinge.

Aus: Hegels Logik und die Ergebnisse der Quantenphysik: https://www.alexander-klier.net/wp-cont ... -Logik.pdf

Ich würde auch mal zu denken geben, dass die asiatischen Philsophien oder das, was in Asien unseren Philosophien entspricht, insbesondere indische, ganz grundsätzlich offener für Zweideutigkeiten aller Art und eine nicht-mechanische Weltsicht sind. Ich kanns nicht näher formulieren, weil ich davon nur eine sehr sehr ungefähre und nebulöse Vorstellung habe.

Aber lassen wir das mal als nicht eben uninteressante Fragestellung stehen.
"Ich kann keine Nation lieben, ich kann keinen Staat lieben, ich kann nur meine Freunde lieben." Hannah Arendt

Zurück zu „43. Computer - Internet - Telekommunikation - Netzpolitik“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast