Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Moderator: Moderatoren Forum 4

Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Nomen Nescio hat geschrieben:(08 Aug 2017, 13:27)

vergiß nicht basic. und pascal war auch nicht schlecht. ;)
Basic und Pascal sind interessant passen hier aber nicht hin.

Lisp hängt eng mit der ersten großen Hype um die KI zusammen und ging unter als man merkte das es so nix wird. Forschungsgelder wurden gekürzt und Lisp verschwand in der Versenkung.

Seit 1-2 Jahren redet man jetzt über selbstlernende Algorithmen. Diese Hype ist also recht jung. Ich werde ihr Ende wohl noch miterleben. Man sollte nicht vergessen das es nur Software ist. Die Hardware basiert immer noch auf der von Neumann Architektur und ist fundamental anders als das Funktionsprinzip des Gehirns. Und um die Sache noch zu erschweren fehlt es Softwareprogrammen vollständig an Input. Es gibt gar keine Sensorik um eine sich dynamisch veränderliche Umwelt in Echtzeit zu erfassen. Was es gibt ist alles rudimentär.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Nomen Nescio hat geschrieben:(08 Aug 2017, 15:01)

genauso wie ein komplett gelähmter mensch das kann.
Der gleichzeitig blind und taub ist. Also gar nicht.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Shellsort
Beiträge: 65
Registriert: Fr 28. Jul 2017, 19:54

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Shellsort »

Zurück zur Frage bitte!
Meine Fragen sind nur Fragen, und gegen niemanden gerichtet.
Auch wenn sie blöd klingen...
Shellsort
Beiträge: 65
Registriert: Fr 28. Jul 2017, 19:54

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Shellsort »

Zurück zur Frage bitte!

Ob KI uns alle vernichten wird oder nicht ist keine Frage die wir beantworten können. Denn da es in der Zukunft stattfinden wird, können nur darüber philosophieren. Aber warum diese unterschätzt wird ist eine heutiges Phänomen der Gesellschaft(wo der Strang wahrscheinlich besser reinpasst wie mir gerade auffällt...) denn schon heute können KI nicht nur den Weg zum Bäcker finden, sondern auch (ziemlich realistische und sogar ziemlich schöne Gesichter erzeugen.) Etwas das Menschen beispielsweise oft schwerfällt, denn bis auf wenige Künstler benötigen die meisten Skulpturbauer noch immer ein Modell(oder ein Foto oder ähnliches).

Dabei sind Gesichter heute sogar noch relativ schwer zu generieren. Trotzdem bin ich überzeugt mit den entsprechenden Formeln und einer genügend großen Rechenleistung ließe sich bereits heute ein detailgetreues 3D-Standbild der Welt erstellen.

Achtung: Vllt. ziemlich unrealistischer Idealismus:
In wenigen Jahren(10-25) könnte es möglich sein dieses zu einer Simulation zu erweitern, an der man jegliche Entscheidungen einzelner Individuen oder ganzer Menschengruppen testen könnte. Man könnte praktisch im makrobereich die Zukunft vorhersehen. Das sieht dann so aus:

Es ist der 7.8.2040:
Dass der Ball von Simulationsbürger Nr°10.763.324.131 Timmy, 9 jahre alt auf dem Fußballplatz von der Wand abprallt, und dannach auf die Straße rollt, kann berechnet werden. Da hier praktisch nur Physik im Spiel ist. Dass Timmy danach dem Ball hinterherrennt, hat eine bestimmte Wahrscheinlichkeit (berechnet mithilfe von Massiver Datenerfassung aller Lebensbereiche durch erweitertes BigData) von z.B: 98,652%.
Also sendet dieser Simulierende Supercomputer eine Nachricht an das Selbstfahrende Auto das am am 8.8.2040 auf dieser Straße fahren wird, dass es doch bitte rechtzeitig bremsen soll.
Und schon hat man das Leben eines Menschen gerettet.

*ende "Vllt. ziemlich unrealistischer Idealismus"

Oder vernichtet, je nachdem was man mit dieser Intelligenz dann alles anstellt.
Denn das ist Intelligenz. Man kann schlecht etwas als "nicht intelligent" bezeichnen, das die nahe Zukunft vorhersehen kann.
Oder kann man? Leider gibt es keine richtige Definition von intelligent.

Google sagt:
"die Fähigkeit, insbesondere durch abstraktes logisches Denken Probleme zu lösen und zweckmäßig zu handeln."
ist Intelligenz. Aber ist dann nicht eigentlich der Programmierer intelligent? Denn er hat diese Maschiene erschaffen, welche "durch abstraktes logisches Denken" Probleme löst. Und das durch (abstraktes) logisches Denken.
Wer ist jetzt intelligent? Beide?
Meine Fragen sind nur Fragen, und gegen niemanden gerichtet.
Auch wenn sie blöd klingen...
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

Shellsort hat geschrieben:(08 Aug 2017, 16:01)

Es ist der 7.8.2040:
Dass der Ball von Simulationsbürger Nr°10.763.324.131 Timmy, 9 jahre alt auf dem Fußballplatz von der Wand abprallt, und dannach auf die Straße rollt, kann berechnet werden. Da hier praktisch nur Physik im Spiel ist. Dass Timmy danach dem Ball hinterherrennt, hat eine bestimmte Wahrscheinlichkeit (berechnet mithilfe von Massiver Datenerfassung aller Lebensbereiche durch erweitertes BigData) von z.B: 98,652%.
Also sendet dieser Simulierende Supercomputer eine Nachricht an das Selbstfahrende Auto das am am 8.8.2040 auf dieser Straße fahren wird, dass es doch bitte rechtzeitig bremsen soll.
Und schon hat man das Leben eines Menschen gerettet.
was durch viel menschen übersehen wird, ist daß ein quantumcomputer (±30 jahre) plötzlich die dimensionen des rechners ändert.
nicht mehr JA oder NEIN gibt es dann als möglichkeit, sondern auch »in between«.
das ist eigentlich was wir menschen auch tun.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Shellsort
Beiträge: 65
Registriert: Fr 28. Jul 2017, 19:54

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Shellsort »

Nomen Nescio hat geschrieben:(08 Aug 2017, 16:21)
nicht mehr JA oder NEIN gibt es dann als möglichkeit, sondern auch »in between«.
Kannst du ein Beispiel nennen?
Meine Fragen sind nur Fragen, und gegen niemanden gerichtet.
Auch wenn sie blöd klingen...
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

Shellsort hat geschrieben:(08 Aug 2017, 16:39)

Kannst du ein Beispiel nennen?
nur theoretisch. vergiß nicht, das man gerade einen prozessor entwickelt hat für was ich mal 1 byte nenne.

ist es nicht schrödingers katze, die entweder in A oder B ist. aber so lange man nicht guckt »in between« scheint?
das soll für die quantumcomputer auch gelten. dadurch kann eine serie von bytes alle mögliche zwischenantworte geben können. statt binair z.b. zehn als grundzahl.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
immernoch_ratlos
Beiträge: 2344
Registriert: So 10. Apr 2016, 17:59

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von immernoch_ratlos »

Hallo Nescio,

nun ich will Dir nicht widersprechen - aber eine solche "Logik" gibt es schon als Theorie - "Fuzzy-Set-Theorie" - im "zuständigen WIKI" (ich hoffe es stört Dich nicht, das ich daraus zitiere) :
WIKI hat geschrieben:Die Überlegungen zu einer Logik der Unschärfe reichen zurück in die griechische Antike. Bereits der Philosoph Platon postulierte, dass zwischen den Begriffen wahr und falsch ein dritter Bereich liege.

Dies stand ganz im Gegensatz zu seinem Zeitgenossen Aristoteles, welcher die Präzision der Mathematik darin begründete, dass eine Aussage nur entweder wahr oder falsch sein kann.
Hier noch das engl. WIKI : Fuzzy logic
Fuzzy logic has been applied to many fields, from control theory to artificial intelligence.
Die "binäre Logik" lässt sich nicht überall anwenden. Unsere menschliche Fähigkeit uns verbal auszudrücken, bedarf nahezu in jeder Lebenslage dieses "dazwischen". Nachdem es also solche Techniken gibt, warum sollte eine Maschine nicht in der Lage sein dieses zu nutzen ?

Am Beispiel "Watson", der dortige Algorithmus, ist doch gerade dazu in der Lage und soweit ich nachlesen konnte, bereits ein gelungener Prozess des "Selbstlernens" und der "Selbstoptimierung" einer Maschine gewesen. Nachdem dieser Akt vollzogen war, hatten die beiden menschlichen Protagonisten (Sieger aus solchen Veranstaltungen in den "computerlosen" Jahren zuvor) in der amerikanische Quizshow "Jeopardy" (2011) keine Chance gegen die hohe Verarbeitungsgeschwindigkeit exakt vorliegende "Erinnerungen" auf die "Watson" nun auch "unscharf" zugreifen konnte. Dem Ganzen war ein intensiver "Lernprozess" der Softwareingenieure vorausgegangen.

Präzise und unverfälschte "Erinnerung" - also eine "Datenbank" ist die menschliche Erinnerung nun gerade nicht. Die Möglichkeit geschickt zu lügen und Wahrheit mit Scheinlogik zu "unterfüttern" mag Menschen täuschen, ein Maschine, welche zum "Querdenken" und nicht nur dazu in der Lage ist, kann solche Versuche schnell enttarnen.

Andere Maschinen wie das bereits erwähnte "Eureqa" analysieren "selbstständig" (vorausgesetzt sie verfügen über die notwendigen "Sinnesorgane") natürliche Vorgänge und stellen die optimierte Formel dazu eigenständig her. Wenn man den Berichten glauben kann, sind selbst hochkarätige Mathematiker inzwischen damit beschäftigt zu ergründen was die "Maschine" da an neuen Erkenntnissen "errechnet" hat. Offenbar ist es hier bereits für Menschen schwierig nachzuvollziehen was die Maschine erkannt und präzise beschrieben hat.

Es wird am Ende die Kombination all dieser Möglichkeiten sein, zu welcher die allermeisten Menschen nichtmehr in der Lage sein werden diese zu verstehen und schon jetzt nichtmehr selbstständig zu erfassen.

Ein Beispiel wie eine "Watson - Variante" in der Realität zum Einsatz kommt : Quelle : STERN (2017.01.06)
Ein japanischer Versicherungsanbieter macht diesbezüglich bereits jetzt Nägel mit Köpfen, wie der "Guardian" berichtet. Demnach will das Unternehmen Fokoku Mutual Life Insurance bis Ende März 34 seiner insgesamt 134 Mitarbeiter der Abteilung Schadensbemessung durch IBMs Watson-System, einer kognitiven Technologie, ersetzen. Dieses soll dem Bericht zufolge unter anderem medizinische Berichte einlesen und auswerten sowie fällige Zahlungen berechnen können. Da es zudem in der Lage sei, besondere Vertragsklauseln zu berücksichtigen, verspricht sich der Versicherer neben einer Zeitersparnis zudem eine Produktivitätssteigerung von 30 Prozent.

IBM: Watson-System "kann denken wie ein Mensch"

Dass die Einrichtung des Systems voraussichtlich umgerechnet rund 1,6 Millionen Euro kostet und pro Jahr weitere 120.000 Euro Wartungsausgaben nach sich ziehen wird, schreckt den Versicherer nicht ab. Vielmehr sei man überzeugt, dass die Installation letztlich etwa 1,1 Millionen Euro Personalkosten jährlich einspare und das Investment so binnen zwei Jahren wieder eingefahren sei, heißt es.

IBM selbst beschreibt sein Watson-System als "kognitive Technologie, die denken kann wie ein Mensch" und es so ermögliche, "jegliche Daten zu analysieren und zu interpretieren, inklusive unstrukturierter Texte, Bilder, Tonaufnahmen oder Videos".

Ein offenbar verlockendes Versprechen. Laut "Guardian" prüfen derzeit drei weitere japanische Versicherungsanbieter, künftig auf ähnliche Systeme zu setzen. Andere, darunter die Lebensversicherer Daichi Life Insurance und Nippon Life Insurance, haben diesen Schritt schon länger umgesetzt
Bei dem Tempo wie sich seit nur wenigen Jahren disruptive Hardware mit Software kombiniert und Prozesse des "Selbstlernens" und der "Selbstoptimierung" von Maschinen und die gleichzeitig immer engere Vernetzung von Informationen und Wissen durch Digitalisierung, wird bald kaum eine Organisation - staatlich und oder privat - an diesen Möglichkeiten vorbeikommen.

Unklar ist es doch heute schon, wo Maschinen bereits mindestens mittelbar scheinbar menschliche Entscheidungen treffen. Im wohl nicht ganz unwichtigen Bereich "Finanzen" entscheidet seit Jahren "Maschinenlogik".....
"Wenn der Wind der Veränderung weht, bauen die einen Mauern und die anderen Windmühlen." (aus China)
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Es wurde in diesem Thread schon (indirekt) darauf hingewiesen: Nich die Komlexität, Speicherfähigkeit und Operationsgeschwindigkeit digitaler Maschinen unterscheidet sich grundlegend (und, da rein theoretisch und logisch auch für immer) vom menschlichen Gehirn. Sondern die Frage Determinismus (digitaler Computer) und Indeterminismus (Mensch). Es ist ein Kinderspiel selbst für ältere Computer "den Weg zum Bäcker zu finden": Nur: woher soll der von selbst ein Motiv dafür hernehmen? Oder auch: Es gibt selbst für die schnellsten und größten Computer ganz grundsätzlich keinerlei Möglichkeiten, über einen deterministischen Algorithmus, echte Zufallswerte zu generieren. Auch wenn es - für den Menschen - immer schwieriger wird, algorithmisch erzeugten Zufall von "echtem" zu unterscheiden. Bei Quantencomputern sieht die Sache schon ganz anders aus. Nur: Das menschliche Gehirn ist ja bereits ein ziemlich guter Quantencomputer. Was sind die chemischen und elektrischen neuronalen Prozesse im Gehirn anderes als quantenphysikalisch implementierte Operationen?

Nur auf der Basis "echter", also wirklich und tatsächlich und grundlegend zufälliger Prozesse - wie sie eben nur auf der Basis von Quantenphysik möglich ist - entsteht wirklich und echt Neues und damit auch Motivation in der Welt. Und es gibt ja auch (und zwar schon heute und schon seit einiger Zeit) Möglichkeiten, diese Sorte Quantencomputer weiterzuentwickeln: Mit Hilfe von Gentechnik nämlich. Die Grenze "Menschenzüchtung" darf dabei angeblich nicht überschritten werden. Es ist aber fraglich, ob sie nicht bereits überschritten wurde.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Rein mathematisch gesehen gibt es seit langem den Begriff der Turing-Mächtigkeit: Eine algorithmische Maschine, selbst wenn sie unendlich viel Speicher besäße, käme über diese Grenze der Berechenbarkeit nicht hinaus.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
immernoch_ratlos
Beiträge: 2344
Registriert: So 10. Apr 2016, 17:59

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von immernoch_ratlos »

Woher das Motiv nehmen ? Damit hast Du gewiss recht. Es ist nur schwer vorstellbar, sich eine Maschine mit "Motiven" "auszumalen".

Menschen ticken einfach anders, als (vermutlich) "rational" ausgerichtete Maschinen. Menschen sind zu tiefst irrational. Eine "Vorstellung" die eine Maschine, so "sie" denn je etwas wie ein Bewusstsein entwickelt, nur haben wird, wenn etwas gewaltig schief läuft.

Die wichtigste Frage scheint mir, warum schaffen Menschen überhaupt rational begründbare Lösungen für all die Probleme welche sie seit Beginn der menschlichen Evolution begleiten :?: Es gibt nur ein Motiv das immer zählt, das ist sich selbst u.a.U. am Leben zu erhalten. Ob das eine Maschine überhaupt entwickeln kann :?:

Sowohl Software, als auch Hardware ist problemlos kopierbar. So gesehen hat das damit verbundene "maschinelle Bewusstsein" nur eine kombinierte "Sorge", sind genügend Ressourcen (Energie und Rohstoffe) vorhanden um sich zu reproduzieren ? Etwas, was offensichtlich Abermillionen von Menschen gerade nicht wirklich umtreibt. Die haben dafür Religionen und Ideologien entwickelt, deren Haupterfolg in einem "gekonnten Selbstbetrug" mündet. "Man" hält sich für etwas besonderes - etwas einmaliges. Rational gesehen ist Sapiens dies auf Grund seiner inzwischen entwickelten Fähigkeiten auch. Doch um sich selbst zu erhalten - eine optimale Menge seines Spezies im Gleichgewicht zu halten - "ohne natürliche Korrekturen von außen" - davon ist Sapiens mit derzeit ~7,4 Milliarden Individuen doch deutlich entfernt.

Würde eine Maschine sich selbst ihrer Überlebensgrundlagen begeben - wohl wissend, das "sie" damit ihr Ende riskiert ? Sobald sich vernetzte Maschinen dieser Probleme "bewusst" werden, ist Sapiens in einer weiteren Gefahr sich selbst zu eliminieren. Können Maschinen Kunst ? Haben zu "Schönheit" (wie "wir" sie recht unterschiedlich interpretieren) die selbe Beziehung ? Vermutlich ist da Perfektion die "neue Schönheit".

Nun ohne lückenlose Beweise antreten zu können, der Zeitpunkt, wo man Maschinen an einer eigenen Entwicklung hindern könnte ist bereits überschritten. Ob sich das gegen uns richtet, ob "wir" als Gefahr für deren "überleben" angesehen werden, hängt wohl auch davon ab, wie sehr wir die bekannten Irrationalitäten weiter pflegen.

Nur ein Beispiel - wer einer Maschine "sagt", es gäbe noch für 500 bis 1.000 Jahre "genügend" Kohle um das derzeitige Leben von Sapiens zu erhalten, gleichzeitig klar ist, das unsere gesamte aktuelle Lebensweise auf exponentielles Wachstum - auch und gerade von "Energiebedarf" ausgerichtet ist, "wohl wissend" (alle Daten dazu in einer zugriffsfähigen Datenbank) um die ~500.000 Jahre menschlicher Evolution, wer "glaubt" (darin - irrationale Vorstellungen "zu glauben" sind "wir " Spitze), einer Maschine würde diese Zusammenhänge entgehen oder "sie" könnte das (wie Sapiens) einfach ignorieren, der dürfte sich bereite heute sehr täuschen.

Sobald dies sich in vernetzten Maschinen "ankommt", wird es Einfluss auf die Ergebnisse dessen haben, was Maschinen (noch) in unserem Auftrag tun. Ein quasi "Organismus" bestehend aus den unterschiedlichsten Maschinenverbünden ist doch bereits in ersten noch rudimentären Zügen vorhanden. Wie viel maschinelles "Eigenleben" kann sich da entwickeln :?: "Wir" tendieren generell dazu "unangenehme" Arbeiten, aber auch Entscheidungen "anderen" zu überlassen. "Andere" waren bislang schlich Menschen, welche man dafür ausbeuten konnte. Doch längst sind die Kosten Menschen, als billige Arbeitskräfte zu erhalten - selbst Sklaven - teurer als die Investition in Maschinen. Unabhängig wie sinnvoll das ist, werden zur Gewinnmaximierung (dagegen habe ich generell zunächst nichts einzuwenden), zunehmen die Dienste von Maschinen vorgezogen. Eine weitere irrationale Vorstellung, dies kreiere wie selbstverständlich Ersatz für die so wegfallenden Jobs in nicht nur gleicher Anzahl, nein angesichts weiter mit exponentiellem ~1,1% Bevölkerungswachstum, auch für jährlich mindestens 80 Millionen weiterer Menschen. Gleichzeitig benötigt genau dieses System, eben diese Menschen um zu funktionieren. Die vergleichsweise alte Überlegung - "Roboter" (anfänglich waren Autos gemeint) kaufen keine "Roboter" - wie sollten "sie" bezahlen - wichtiger, welches Motiv sollten dafür haben ? Eine Bedingung erfüllen Maschinen im Gegensatz zu immer weniger Menschen, sie ARBEITEN. Wie "rational" ist die Überlegung, man könne einerseits teure Menschen durch Maschinen kostengünstig ersetzen, um dann wieder - mit natürlich teure neue Arbeitsplätze - für all jene zu schaffen, welche gerade "kostengünstig" ersetzt wurden um dort das Einkommen zu generieren, was die Abnahme von eben diesen maschinengenerierten Waren und zunehmend auch Diesnstleistungen garantiert. Das dies Heute noch funktioniert, ist kein rationales Argument für Morgen.

Solche "verwirklichte Fehleinschätzungen" bringt nur Sapiens fertig. Eine "vernetzter Maschinenorganismus" müsste zuerst Irrationalität (etwas das in krassem Widerspruch zu allem was "wir" über Maschinen wissen steht) selbst entwickeln :rolleyes: Einfach "einprogrammieren" scheitert längst an der "Lernfähigkeit" aktueller Maschinen :dead:
"Wenn der Wind der Veränderung weht, bauen die einen Mauern und die anderen Windmühlen." (aus China)
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Shellsort hat geschrieben:(08 Aug 2017, 16:01)

Zurück zur Frage bitte!

Ob KI uns alle vernichten wird oder nicht ist keine Frage die wir beantworten können. Denn da es in der Zukunft stattfinden wird, können nur darüber philosophieren. Aber warum diese unterschätzt wird ist eine heutiges Phänomen der Gesellschaft(wo der Strang wahrscheinlich besser reinpasst wie mir gerade auffällt...) denn schon heute können KI nicht nur den Weg zum Bäcker finden, sondern auch (ziemlich realistische und sogar ziemlich schöne Gesichter erzeugen.) Etwas das Menschen beispielsweise oft schwerfällt, denn bis auf wenige Künstler benötigen die meisten Skulpturbauer noch immer ein Modell(oder ein Foto oder ähnliches).

Dabei sind Gesichter heute sogar noch relativ schwer zu generieren. Trotzdem bin ich überzeugt mit den entsprechenden Formeln und einer genügend großen Rechenleistung ließe sich bereits heute ein detailgetreues 3D-Standbild der Welt erstellen.
Es gibt keine KI die den Weg zum Bäcker findet. Und 3D-Bilder sind einfach nur Rechenaufgaben. Mit KI hat dies wenig zu tun. Da werkelt hochspezialisierte Software. Das ist nur eine Form der Mechanisierung.

Ich sagte ja schon das man Algorithmen überschätzt. Und denke für wirklich denkende Computer ist die heutige, jahrzehntealte Computerarchitektur denkbar ungeeignet. Quantencomputer dürften da interessanter sein. Sie können mit Wahrscheinlichkeiten operieren. Heutige Rechner dagegen nur mit 0 oder 1. Aber das dürfte wohl noch etwas länger dauern.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

schokoschendrezki hat geschrieben:(09 Aug 2017, 07:49)

Es wurde in diesem Thread schon (indirekt) darauf hingewiesen: Nich die Komlexität, Speicherfähigkeit und Operationsgeschwindigkeit digitaler Maschinen unterscheidet sich grundlegend (und, da rein theoretisch und logisch auch für immer) vom menschlichen Gehirn. Sondern die Frage Determinismus (digitaler Computer) und Indeterminismus (Mensch). Es ist ein Kinderspiel selbst für ältere Computer "den Weg zum Bäcker zu finden": Nur: woher soll der von selbst ein Motiv dafür hernehmen? Oder auch: Es gibt selbst für die schnellsten und größten Computer ganz grundsätzlich keinerlei Möglichkeiten, über einen deterministischen Algorithmus, echte Zufallswerte zu generieren. Auch wenn es - für den Menschen - immer schwieriger wird, algorithmisch erzeugten Zufall von "echtem" zu unterscheiden. Bei Quantencomputern sieht die Sache schon ganz anders aus. Nur: Das menschliche Gehirn ist ja bereits ein ziemlich guter Quantencomputer. Was sind die chemischen und elektrischen neuronalen Prozesse im Gehirn anderes als quantenphysikalisch implementierte Operationen?

Nur auf der Basis "echter", also wirklich und tatsächlich und grundlegend zufälliger Prozesse - wie sie eben nur auf der Basis von Quantenphysik möglich ist - entsteht wirklich und echt Neues und damit auch Motivation in der Welt. Und es gibt ja auch (und zwar schon heute und schon seit einiger Zeit) Möglichkeiten, diese Sorte Quantencomputer weiterzuentwickeln: Mit Hilfe von Gentechnik nämlich. Die Grenze "Menschenzüchtung" darf dabei angeblich nicht überschritten werden. Es ist aber fraglich, ob sie nicht bereits überschritten wurde.
Computer können den Wag zum Bäcker nur mit Hilfe eines statischen Weltmodells finden. Mit Blick auf echtes autonomes Autofahren erwarte ich aber das der Bordcomputer den Weg mit Hilfe der eigenen Sensorik findet und dabei keinen überfährt. Also ohne ständige Internetverbindung. Ich halte das Gängelband über I-Net für einen Irrweg weil viel zu stör und sabotageanfällig.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Alter Stubentiger hat geschrieben:(09 Aug 2017, 11:36)

Computer können den Wag zum Bäcker nur mit Hilfe eines statischen Weltmodells finden. Mit Blick auf echtes autonomes Autofahren erwarte ich aber das der Bordcomputer den Weg mit Hilfe der eigenen Sensorik findet und dabei keinen überfährt. Also ohne ständige Internetverbindung. Ich halte das Gängelband über I-Net für einen Irrweg weil viel zu stör und sabotageanfällig.
Das ist jetzt eher eine Frage des praktischen Einsatzes. Bereits historische Ferngläser oder Sextanten waren ziemlich effektive Navigationshilfen. Die Eingangsfrage habe ich eher als prinzipiell und sozusagen philosophisch verstanden.

"Autonom" ist für eine digitale Maschine gleich welcher Komplexität und Funktionstüchtigkeit eigentlich ein unpassendes Attribut. Äußere Bedingungen zu allen Zeitpunkten, Anfangszustand und Menge aller implementierten Algorithmen gegeben, lässt sich (theoretisch) die Verlaufstrajektorie exakt vorausberechnen. Ein anderer wichtiger (gleichfalls theoretischer) Zusammenhang spiegelt sich darin wieder, dass digitale Maschinen gundsätzlich keine Komplexität so überschreiten können, dass sie nicht von anderen digitalen Maschinen konstruierbar sind. Dieser grundsätzliche Determinismus ist der entscheidende Punkt, der auch von noch so komplexen und leistungsfähigen Digitalmaschinen prinzipiell nicht überschreitbar ist. Es kommt nix grundsätzlich Neues mit ihnen in die Welt.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

schokoschendrezki hat geschrieben:(09 Aug 2017, 13:05)

Das ist jetzt eher eine Frage des praktischen Einsatzes. Bereits historische Ferngläser oder Sextanten waren ziemlich effektive Navigationshilfen. Die Eingangsfrage habe ich eher als prinzipiell und sozusagen philosophisch verstanden.

"Autonom" ist für eine digitale Maschine gleich welcher Komplexität und Funktionstüchtigkeit eigentlich ein unpassendes Attribut. Äußere Bedingungen zu allen Zeitpunkten, Anfangszustand und Menge aller implementierten Algorithmen gegeben, lässt sich (theoretisch) die Verlaufstrajektorie exakt vorausberechnen. Ein anderer wichtiger (gleichfalls theoretischer) Zusammenhang spiegelt sich darin wieder, dass digitale Maschinen gundsätzlich keine Komplexität so überschreiten können, dass sie nicht von anderen digitalen Maschinen konstruierbar sind. Dieser grundsätzliche Determinismus ist der entscheidende Punkt, der auch von noch so komplexen und leistungsfähigen Digitalmaschinen prinzipiell nicht überschreitbar ist. Es kommt nix grundsätzlich Neues mit ihnen in die Welt.
Nur ist dieses "autonom" ein Etikett mit dem gerade kräftig geworben wird. Und daher kommt ja auch die Angst vor "selbstlernenden" Algorithmen. Dieses vorgaukeln von autonomen Denkprozessen weckt diese Ängste.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

Alter Stubentiger hat geschrieben:(09 Aug 2017, 11:31)

Ich sagte ja schon das man Algorithmen überschätzt. Und denke für wirklich denkende Computer ist die heutige, jahrzehntealte Computerarchitektur denkbar ungeeignet. Quantencomputer dürften da interessanter sein. Sie können mit Wahrscheinlichkeiten operieren. Heutige Rechner dagegen nur mit 0 oder 1. Aber das dürfte wohl noch etwas länger dauern.
ich habe einfach die zeit genommen die die rechner brauchten um echt akzeptiert zu werden: 30 jahre.

von den ingenieuren die bei der entwicklung des 1 byte quantumrechners mitarbeiten hörte ich daß sie doch minimal mit 20 jahren rechnen.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Shellsort
Beiträge: 65
Registriert: Fr 28. Jul 2017, 19:54

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Shellsort »

Alter Stubentiger hat geschrieben:(09 Aug 2017, 11:31)
Es gibt keine KI die den Weg zum Bäcker findet.
Google Maps? Ist nichteinmal eine KI.
Oder verstehe ich was falsch?
Ich bin verwirrt. Was genau ist denn jetzt dein Argument?
Meine Fragen sind nur Fragen, und gegen niemanden gerichtet.
Auch wenn sie blöd klingen...
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Shellsort hat geschrieben:(09 Aug 2017, 17:13)

Google Maps? Ist nichteinmal eine KI.
Oder verstehe ich was falsch?
Ich bin verwirrt. Was genau ist denn jetzt dein Argument?
Google maps zeigt dir eine statische Welt. So wie alle anderen Navigationssysteme auch. All das was dir auf dem Weg zum Bäcker begegnet mußt du aber auch erfassen und die Bedeutung erkennen und gegebenenfalls reagieren. Dynamisch. Da liegt der Hase im Pfeffer. Ein Kind kann diese Problemstellung ohne Anstrengung lösen. Für Algorithmen ohne ausreichende Sensorik ist es aber unendlich schwer.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Alter Stubentiger hat geschrieben:(09 Aug 2017, 16:17)

Nur ist dieses "autonom" ein Etikett mit dem gerade kräftig geworben wird. Und daher kommt ja auch die Angst vor "selbstlernenden" Algorithmen. Dieses vorgaukeln von autonomen Denkprozessen weckt diese Ängste.
Bei denen, die sich schon jetzt von ihrem TV-Gerät sagen lassen, was sie schauen sollen, ist diese Angst auch berechtigt. "Autonomie" heißt wörtlich "Selbstbestimmtheit". Wer ein (möglichst weitgehend) selbstbestimmtes Leben führt, benutzt Technik einfach.

Auch "selbstlernende", dynamische, selbstreflektierende, selbstoptimierende Programmstrukturen im allgemeinen, sind letztlich nichts anderes als effektivere Methoden zur Komplexitätserschließung als statische Programmierung. Sie führen nicht grundsätztlich aus der Klasse der Algorithmen hinaus, die durch binär arbeitende Maschinen erstellbar sind. "Lernen" im eigentlichen Sinne ist alles andere als identisch mit "Selbstoptimierung".
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
odiug

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von odiug »

Was wir von AI zu erwarten haben, kann man hier nachlesen:
http://www.dailymail.co.uk/sciencetech/ ... ching.html
Solange man sie noch abschalten kann, ist ja alles gut.
Schlimm wird es, wenn nicht. :eek:
Wobei ... so einen großen Unterschied zu heute macht das auch nicht. :(
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

odiug hat geschrieben:(09 Aug 2017, 22:37)

Was wir von AI zu erwarten haben, kann man hier nachlesen:
http://www.dailymail.co.uk/sciencetech/ ... ching.html
Solange man sie noch abschalten kann, ist ja alles gut.
Schlimm wird es, wenn nicht. :eek:
Wobei ... so einen großen Unterschied zu heute macht das auch nicht. :(
Ich sehe das wesentlich entspannter. Tay ist vor allem der personifizierte - äh, "maschinisierte" - Konformismus. Aber auch wenn es natürlich nur Spekulation ist: So einfach wird der Bot nicht programmiert sein, dass er einfach nur Mehrheitsmeinungen nachplappert. Ich vermute, er sucht zunächst per Mustererkennung Konversationsstrukturen mit einem dynamischen Selbstorganisationspotenzial und einer strukturellen Abgrenzungsfähigkeit. Das ist alles andere als trivial. Vielleicht so wie aus verstreuten Einzelmessungen der Meeresströmungen, den Golfstrom herauszufiltern. Und versucht sich darin einzuordnen. Und hier auch nicht einfach als "Durchschnitt" sondern mit begrenztem Individualverhalten.

Ich sag mal zwei Sachen dazu: Als wenn man solches Verhalten nicht ebenso bei menschlichen Diskutanten erkennen könnte. Und: Als wenn dies nicht einfach und vor allem eine Reflexion schon bestehender Realität wäre.

Auch die Befürchtung, Bots könnten Börsencrashs oder politisches Chaos hervorrufen, teile ich nicht. Nicht, dass ich nicht wüsste, dass es Crashs und Chaos ja gibt und gab: Aber solche Bots weisen kein höheres Chaosstiftungspotenzial auf als Menschen.

Dass Bots eine bestehende politische oder gesellschaftliche Strömung verstärken können, ist trivialerweise richtig. Das tat aber vor bereits mehreren hundert Jahren die Erfindung des Buchdrucks auch. Wollen wir deshalb auf Bücher verzichten? Das Problem ist nicht der Buchdruck sondern die Chance, die sich einem Hetzer bietet, damit sein agressives Potenzial zu verbreiten. Der "Hexenhammer" und ähnliches waren eine der ersten Bücher, die durch den Buchdruck weite Verbreitung fanden und die maßgeblich zum Umsichgreifen der Hexenverfolgung beitrugen. Das Beispiel zeigt, dass das allgemeinere Problem nicht erst mit selbstlernenden Algorithmen und künstlichen Bots in der Welt ist.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

schokoschendrezki hat geschrieben:(09 Aug 2017, 22:26)

Bei denen, die sich schon jetzt von ihrem TV-Gerät sagen lassen, was sie schauen sollen, ist diese Angst auch berechtigt. "Autonomie" heißt wörtlich "Selbstbestimmtheit". Wer ein (möglichst weitgehend) selbstbestimmtes Leben führt, benutzt Technik einfach.

Auch "selbstlernende", dynamische, selbstreflektierende, selbstoptimierende Programmstrukturen im allgemeinen, sind letztlich nichts anderes als effektivere Methoden zur Komplexitätserschließung als statische Programmierung. Sie führen nicht grundsätztlich aus der Klasse der Algorithmen hinaus, die durch binär arbeitende Maschinen erstellbar sind. "Lernen" im eigentlichen Sinne ist alles andere als identisch mit "Selbstoptimierung".
Jo. Kann man so sagen. So ich es verstehe kann eine KI nur weitere Programme verbessern/erstellen. Sie kann aber sich selbst nicht weiter entwickeln da Programm und Daten in heutigen Rechnern immer streng voneinander getrennt sind. Oder habe ich da was falsch verstanden?
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

schokoschendrezki hat geschrieben:(10 Aug 2017, 07:20)

Auch die Befürchtung, Bots könnten Börsencrashs oder politisches Chaos hervorrufen, teile ich nicht. Nicht, dass ich nicht wüsste, dass es Crashs und Chaos ja gibt und gab: Aber solche Bots weisen kein höheres Chaosstiftungspotenzial auf als Menschen.
ohne das eingreifen wenn kursen abstürzen wäre ein crash nicht nur wahrscheinlich, sondern sicher passiert.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Shellsort
Beiträge: 65
Registriert: Fr 28. Jul 2017, 19:54

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Shellsort »

Alter Stubentiger hat geschrieben:(09 Aug 2017, 18:12)
Für Algorithmen ohne ausreichende Sensorik ist es aber unendlich schwer.
Nehmen wir einmal an, du (als intelligentes Lebewesen)bist in einem Raum eingesperrt, aus dem du fliehen musst. Dazu musst du nur zur Türe gehen und sie öffnen.

Nur dass du keine deiner Sinne benutzen darfst.
Da haben wir die selbe Situation.
Meine Fragen sind nur Fragen, und gegen niemanden gerichtet.
Auch wenn sie blöd klingen...
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Alter Stubentiger hat geschrieben:(10 Aug 2017, 11:59)

Jo. Kann man so sagen. So ich es verstehe kann eine KI nur weitere Programme verbessern/erstellen. Sie kann aber sich selbst nicht weiter entwickeln da Programm und Daten in heutigen Rechnern immer streng voneinander getrennt sind. Oder habe ich da was falsch verstanden?
Naja, sind sie eigentlich nicht. Der Trick bei den selbstlernenden Programmen besteht ja gerade darin, dass sie selbst zu veränderlichen Daten gemacht werden und eben nicht mehr nur statisch irgendwelche getrennten Daten verändern (sondern sich selbst).

Der wesentliche Punkt besteht (meiner Ansicht nach) darin, dass auch sie keine spontanen, unlogischen, einer gegebenen Optimierungsaufgabe widersprechenden Aktionen machen könne, weil sie eben binär und deterministisch bleiben. Auch bei einem selbstlernendes Programm, das einfach mal so den Wasserhahn aufdreht, wenn im Keller das Wasser ansteigt, würde jeder Ingenieur dir einen Vogel zeigen, wenn Du behauptest, genau darin bestünde die prinzipielle Überlegenheit (analoger) Lebewesen. Wobei analog im Wesentlichen meint: Fähig zur Erzeugung eines "echten" Indeterminismus.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
Perdedor
Beiträge: 3462
Registriert: Do 5. Jun 2008, 23:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Perdedor »

schokoschendrezki hat geschrieben: Nich die Komlexität, Speicherfähigkeit und Operationsgeschwindigkeit digitaler Maschinen unterscheidet sich grundlegend (und, da rein theoretisch und logisch auch für immer) vom menschlichen Gehirn. Sondern die Frage Determinismus (digitaler Computer) und Indeterminismus (Mensch).
Es ist umstritten, ob der Nichtdeterminismus der Quantenmechanik im Gehirn eine Rolle spielt.
Das Problem sind in der Tat eher die herkömmlichen Rechnerstrukturen (von Neumann), mit denen eine Simulation des Gehirns mittels Algorithmen einfach zu aufwändig ist. Besser geeignet sind neuromorphe Chips, wie sie z.B. beim Human Brain Project im großen Stil untersucht werden.
https://de.wikipedia.org/wiki/Neuromorpher_Chip
Es ist absehbar, dass diese bereits mittelfristig Teile des menschlichen neuronalen Systems ersetzen können (künstliche Retina...). Beim HBP sind Teile von Rattenhirnen simuliert worden (was allerdings bereits vorher mit herkömmlichen Strukturen gelang).

Zur Eingangsfrage:
Die eher abwartende Haltung in der öffentlichkeit hängt wohl vor allem damit zusammen, dass die SciFi Autoren der Vergangenheit zu optimistisch waren, was die maschinelle Intelligenz anbelangt. Die konkreten, für die Allgemeinheit greifbaren Fortschritte sind überschaubar. Daher herrscht wohl eine gewisse Desillusionierung vor, was ich aber nicht als "Unterschätzung" bezeichnen würde.
Arbeit. Leben. Zukunft.
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Perdedor hat geschrieben:(10 Aug 2017, 18:20)

Es ist umstritten, ob der Nichtdeterminismus der Quantenmechanik im Gehirn eine Rolle spielt.
Das Problem sind in der Tat eher die herkömmlichen Rechnerstrukturen (von Neumann), mit denen eine Simulation des Gehirns mittels Algorithmen einfach zu aufwändig ist. Besser geeignet sind neuromorphe Chips, wie sie z.B. beim Human Brain Project im großen Stil untersucht werden.
https://de.wikipedia.org/wiki/Neuromorpher_Chip
Es ist absehbar, dass diese bereits mittelfristig Teile des menschlichen neuronalen Systems ersetzen können (künstliche Retina...). Beim HBP sind Teile von Rattenhirnen simuliert worden (was allerdings bereits vorher mit herkömmlichen Strukturen gelang).
Ich habe keinen Zweifel daran, dass es auf der Basis von Neurochips schon in Kürze etwa künstliche Augen mitsamt künstlichen Sehzentren geben wird, die die Leistungsfähigkeit des menschlichen Seh-, Erkennungs und vor allem Zuordnungs-, Klassifikations-, Musterkennungs-Systems bei weitem übertreffen. Aber genauso wie es es fraglich ist, ob der Nichtdeterminismus der QT im Gehirn eine Rolle spielt, scheint es mir fraglich, ob Gedanken ab einer gewissen Abstraktionsstufe (ich meine wirklich Gedanken und nicht Grundemotionen wie Angst oder Freude) tatsächlich lokalisierbar, materiell eingrenzbar, neuronal zuordbar sind (selbst wenn sie realiter sein sollten). Aber vielleicht hängt ja beides sogar zusammen. Dass also - mal ganz schwammig formuliert - an den Kipp-Punkten eines deterministischen Chaos Quantenprozesse eben gerade die "Flügelschläge des Schmetterlings" sind, die den Orkan in Amerika - sprich, den endgültig kondensierten Gedanken, hervorbringen.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

schokoschendrezki hat geschrieben:(10 Aug 2017, 21:15)

scheint es mir fraglich, ob Gedanken ab einer gewissen Abstraktionsstufe (ich meine wirklich Gedanken und nicht Grundemotionen wie Angst oder Freude) tatsächlich lokalisierbar, materiell eingrenzbar, neuronal zuordbar sind (selbst wenn sie realiter sein sollten).
ja, vor einigen monaten gabs darüber ein bericht. aber, und das ist das problem, was stellen sie dar. der vergleich damals lautete »wir brauchen einen viel großeren stein von rosetta um jene sprache zu entziffern«.
was mich tröstet, ist daß in den 50 jahren - als watson und cricks die struktur des DNA-molekuls entdeckt hatten - auch gedacht wurde daß man es aber nie entziffern könnte. und um den siebziger jahre hatte man entdeckt, daß es nonsens codonen gab. und siehe mal wie weit sie jetzt sind.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Benutzeravatar
Perdedor
Beiträge: 3462
Registriert: Do 5. Jun 2008, 23:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Perdedor »

schokoschendrezki hat geschrieben: Aber genauso wie es es fraglich ist, ob der Nichtdeterminismus der QT im Gehirn eine Rolle spielt, scheint es mir fraglich, ob Gedanken ab einer gewissen Abstraktionsstufe (ich meine wirklich Gedanken und nicht Grundemotionen wie Angst oder Freude) tatsächlich lokalisierbar, materiell eingrenzbar, neuronal zuordbar sind (selbst wenn sie realiter sein sollten).
Was heißt "zuordbar"? Gedanken sind natürlich Prozesse bei denen sehr viele Neuronen zusammenspielen. Insofern sind sie nicht an einem bestimmten Punkt lokalisierbar. Materiell eingrenzbar sind sie natürlich. Nämlich auf den menschlichen Körper.
schokoschendrezki hat geschrieben: Dass also - mal ganz schwammig formuliert - an den Kipp-Punkten eines deterministischen Chaos Quantenprozesse eben gerade die "Flügelschläge des Schmetterlings" sind, die den Orkan in Amerika - sprich, den endgültig kondensierten Gedanken, hervorbringen.
Ja, vielleicht. Aber der Clou bei dem Schmetterling ist ja gerade, dass es in diesem Beispiel keine Quantenprozesse braucht. Deterministisches Chaos ist deterministisch und lässt sich am Computer simulieren. Beim Wetterbeispiel ist das Problem, dass auf absehbare Zeit kein Computer leistungsfähig genug sein wird, die gesamte Atmosphäre zu simulieren. Das Gehirn ist im Vergleich dazu wesentlich kleiner.
Arbeit. Leben. Zukunft.
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Perdedor hat geschrieben:(10 Aug 2017, 21:50)

Was heißt "zuordbar"? Gedanken sind natürlich Prozesse bei denen sehr viele Neuronen zusammenspielen. Insofern sind sie nicht an einem bestimmten Punkt lokalisierbar. Materiell eingrenzbar sind sie natürlich. Nämlich auf den menschlichen Körper.



Ja, vielleicht. Aber der Clou bei dem Schmetterling ist ja gerade, dass es in diesem Beispiel keine Quantenprozesse braucht. Deterministisches Chaos ist deterministisch und lässt sich am Computer simulieren. Beim Wetterbeispiel ist das Problem, dass auf absehbare Zeit kein Computer leistungsfähig genug sein wird, die gesamte Atmosphäre zu simulieren. Das Gehirn ist im Vergleich dazu wesentlich kleiner.
Es ist auf jeden Fall ein weiter Weg. Ich fühle mich in meiner Ansicht bestärkt das die Hype um die Algorithmen doch ziemlich überzogen ist. Wie eben die früheren Bestrebungen mit spezialisierten Programmiersprachen wie Lisp.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
immernoch_ratlos
Beiträge: 2344
Registriert: So 10. Apr 2016, 17:59

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von immernoch_ratlos »

Um wenigstens eine inzwischen sehr aktiven "AI" auf der Spur zu bleiben, habe ich es mal mit : 2017:"Watson in der Medizin" "Ungefähr 62 Ergebnisse" erhalten.

Wenn auch "schon" mehr als drei Jahre alt (14.02.2014) enthält dieser Artikel der FAZ Gläserner Patient Der Computer ersetzt den Arzt neben den Ängsten aller Beteiligten auch eine Reihe sehr interessanter Daten an denen "Mensch" schlicht nichtmehr "vorbeikommt" und deren Verarbeitung ohne leistungsfähige Algorithmen und immer bessere Hardware längst vieles nicht einmal im Ansatz möglich wäre.
FAZ hat geschrieben:...Echtzeitdaten aus dem Körper werden immer wertvoller. Jeden Tag werden allein im amerikanischen Gesundheitssektor mittlerweile fünfzehn Petabyte Daten verarbeitet. Das ist eine Eins mit fünfzehn Nullen oder etwa achtmal so viele Daten, wie von Google Earth insgesamt gemanagt werden. Und mit jedem Projekt, das die Datensammlung weiter vernetzt, wachsen die Datenpools exponentiell: Die „Konvergenz“ der Sensoren füttert nach den Vorstellungen ihrer Erfinder eine medizinische Informationsbörse: Das Auto sammelt bald Daten über Herz- und Atemfrequenz, die Uhr ermittelt Schrittfrequenz und Bewegungsmuster, im Bad werden Zucker- und Blutwerte, unter der Matratze wird das Schlafverhalten erfasst.
Auch typisch für D :
FAZ hat geschrieben:Nirgends, das zeigt die Accenture-Studie unmissverständlich, sei der Widerstand so groß wie in Deutschland - und zwar auf professioneller Seite: siebzig Prozent der Patienten, aber nur zwölf Prozent der Ärzte wollen Zugang zu elektronischen Patientenakten mit den entsprechenden Daten.

Oder nehmen wir die „Silver Surfer“, also die über 65 Jahre alten, internetaffinen Senioren. Zwei Drittel im Land wollen der Umfrage zufolge „ihre Gesundheit durch Digitalisierung und E-Health-Lösungen verstärkt selbst managen“, ein Viertel zeichnet angeblich schon heute die eigene Gesundheitshistorie auf, ein Drittel dokumentiert bereits regelmäßig Gesundheitswerte wie Gewicht und Blutdruck im eigenen Computer.
Einmal gesammeltes und verifiziertes Wissen bleibt erhalten - im Gegensatz zum menschlichen Träger, mit dessen Tod all sein Wissen, all seine Erfahrungen unwiederbringlich verloren gehen, ist der Inhalt einer Datenbank deutlich überlebensfähiger. Kommt nun die inzwischen verfügbare AI dazu und das "zwischendrin Verstehen" von Zusammenhängen wie sie das Watson System inzwischen nachweislich aufweist, ist die wechselseitige Beeinflussung zwischen Mensch und Maschine "irgendwo" ein Akt des Verstehens der einmal implementiert - gleichgültig durch wen - nichtmehr rückgängig gemacht werden kann. Es sei den "man" zerstört das gesamte System.

So ist der Übergang fließend und dies :
FAZ hat geschrieben:...„Kraut und Rüben“, so hat Sonja Zillner von Siemens die Erkenntnisse zusammengefasst, die sie in einer Auftragsstudie der Europäischen Kommission hinsichtlich der Datenstandards ermittelt hat. Mit anderen Worten: Gemessen wird, verstanden wird nichts. Mit bis zu siebzig Software-Applikationen wird so ein Krankenhaus heute betrieben, und jede Computeranwendung hat ihr eigenes Vokabular. Genominformationen, Laborwerte, Röntgenbilder, Verschreibungen - schon die medizinischen Basisdaten, soweit sie erfasst werden, lassen sich nicht ohne Weiteres zusammenführen und nach den annoncierten Effizienzkriterien sinnvoll nutzen. Kein Ökosystem, eher schon ein Flickenteppich von Systemen. Von Harmonisierung ist die Rede und von Datenverdichtung, von „toxischen Daten“ gar, die den Arzt eher verwirren, als eine Entscheidungshilfe sind. Trotzdem bleibt man dabei: „Galileos Programm muss weiterlaufen“, forderte Markus Löffler von der Universität Leipzig. Was messbar ist, muss gemessen und bezeichnet werden.
wird dann der Vergangenheit angehören. Mit zunehmender Vernetzung nicht nur dieser Systeme unter der "Haube" von ausgefeilten Systemen mit ständig optimierten und auch selbst optimierenden Algorithmen, mehr (zunächst) theoretische Macht anhäufen. Wer will dann noch klar entscheiden wer tatsächlich Entscheidungen trifft ? Etwas, zu was angeblich nur Menschen fähig sein sollen. Gerade Sapiens, dessen Hirnleistung die allermeiste Zeit mit selbsterzeugten Mythen beschäftigt ist, der über keinerlei "Algorithmen" verfügt, welche sein eigenes Wohl ohne Wehe auch nur im Ansatz in den Vordergrund des Handelns stellt.

Würde man einen Algorithmus entwickeln, der z.B. dieses Forum auf Mythen (Religion - Ideologie - usw.) untersucht und alle solcherart substanzlosen Inhalte verwerfen würde, wie viel oder schlimmer wie wenig vom derzeitigen Inhalt bliebe da übrig ? Nun das tut wohl niemand, doch was, wenn sich eine "Watson-Ableger" z.B der Rechtswissenschaft annimmt ? Urteile und alles was damit zusammenhängt, ein weiteres Feld für kognitive AI ....
"Wenn der Wind der Veränderung weht, bauen die einen Mauern und die anderen Windmühlen." (aus China)
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Perdedor hat geschrieben:(10 Aug 2017, 21:50)

Was heißt "zuordbar"? Gedanken sind natürlich Prozesse bei denen sehr viele Neuronen zusammenspielen. Insofern sind sie nicht an einem bestimmten Punkt lokalisierbar. Materiell eingrenzbar sind sie natürlich. Nämlich auf den menschlichen Körper.



Ja, vielleicht. Aber der Clou bei dem Schmetterling ist ja gerade, dass es in diesem Beispiel keine Quantenprozesse braucht. Deterministisches Chaos ist deterministisch und lässt sich am Computer simulieren.
Eben. Dass Computer mit dem deterministischen Chaos des Wettergeschehens noch lange überfordert sein werden, ist ja nur ein technischer Aspekt. Indeterminismus ist nicht einfach eine (erreichbare) Grenze wachsender Komplexität von deterministischem Chaos. Dass die Welt indeterministisch sein muss, ist auch gar keine naturwissenschaftliche oder mathematisch-logische sondern eine philosophisch-ontologische Erkenntnis. Auch eine noch so komplexe deterministische Welt wäre letztendlich ein aufgezogenes Uhrwerk. Zu welchem Zweck? Mit welchem Ziel? Es ist doch bemerkenswert, dass ausgerechnet mit dem Determinismus (Newton usw.) Metaphysik und Religion Einzug ins Weltbild hält. Die Planetenbahnen waren schon immer auch Sinnbild für göttliches Tun.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
Perdedor
Beiträge: 3462
Registriert: Do 5. Jun 2008, 23:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Perdedor »

schokoschendrezki hat geschrieben: Dass die Welt indeterministisch sein muss, ist auch gar keine naturwissenschaftliche oder mathematisch-logische sondern eine philosophisch-ontologische Erkenntnis.
Es führt vielleicht etwas weit vom Thema weg, aber hier muss ich meine Bedenken vortragen.
Dass die Welt indeterministisch ist, ist eine rein naturwissenschaftliche Erkenntnis (Quantenmechanik, Unschärferelation, Bellsche Ungleichung...). Gäbe es diese Erkenntnis nicht, sähe ich keinen Grund das Uhrwerk-Bild zu verwerfen. Gerade das Schmetterlingsbeispiel zeigt ja, dass man den Unterschied im Makroskopischen ohnehin nicht feststellen würde. Die QM sehen wir nur im Kleinsten wirken. Unsere täglichen Erfahrungen sehen mit und ohne Indeterminismus gleich aus.
schokoschendrezki hat geschrieben: Die Planetenbahnen waren schon immer auch Sinnbild für göttliches Tun.
Aber eben nur bis Newton & Co. Danach folgten sie aus den Gesetzen der Gravitation.
Arbeit. Leben. Zukunft.
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Beitrag von schokoschendrezki »

Perdedor hat geschrieben:(14 Aug 2017, 19:21)

Es führt vielleicht etwas weit vom Thema weg, aber hier muss ich meine Bedenken vortragen.
Dass die Welt indeterministisch ist, ist eine rein naturwissenschaftliche Erkenntnis (Quantenmechanik, Unschärferelation, Bellsche Ungleichung...). Gäbe es diese Erkenntnis nicht, sähe ich keinen Grund das Uhrwerk-Bild zu verwerfen. Gerade das Schmetterlingsbeispiel zeigt ja, dass man den Unterschied im Makroskopischen ohnehin nicht feststellen würde. Die QM sehen wir nur im Kleinsten wirken.
Die Quantenmechanik als Naturwissenschaft bestätigt wissenschaftlich, was Philosophen auch ohne Doppelspaltexperiment erahnen können. Und wenn sie wirklich nur im Kleinsten wirkt und im Makroskopischen nicht, dann existieren halt Mikro- und Makrowelt nebeneinander und getrennt. Daran können aber auch bekannte Physiker nicht glauben. Der Nobelpreisträger von 2003, Anthony Legett meinte halb im Spaß, halb im Ernst, in 200 Jahren werde man "Studenten am Doppelspalt interferieren lassen". Man kann nicht glauben oder man will vielleicht auch nicht glauben, dass die Makrowelt vollkommen deterministisch ist. Ich auch nicht! Und "nicht feststellen können" ist immer noch etwas anderes als "nicht sein".

Für eine vollkommen deterministische Welt oder auch abgetrennte Makrowelt wäre das Uhrwerk auch kein "Bild" sondern diese Welt wäre ein Uhrwerk. Mit der Konsequenz, dass man - zumindest theoretisch - jeden zukünftigen Zustand ausrechnen könnte. Und damit würde die Zeit als unabhängige Dimension de facto verschwinden. Denn wenn in jedem gegebenen Zustand alle zukünftigen Zustände enthalten sind, lässt sich die Zeit ebensogut auf einen Punkt zusammenziehen. Das wäre die Konsequenz einer vollkommen deterministischen Welt.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
Perdedor
Beiträge: 3462
Registriert: Do 5. Jun 2008, 23:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Perdedor »

schokoschendrezki hat geschrieben: Die Quantenmechanik als Naturwissenschaft bestätigt wissenschaftlich, was Philosophen auch ohne Doppelspaltexperiment erahnen können.
Ich weiß von keinem einzigen Philosophen, der vor der Entdeckung der QM auch nur annähernd deren Bedeutung und Implikationen erahnt hat. Das Bild des Indeterminismus war lediglich diffus vorhanden, meist in der Form von unscharfen Definitionen des freien Willens oder der Allmacht eines Gottes (beides historisch nur bedingt mit dem Determinismus vereinbar). Das Konzept der Unbestimmtheit, als fundamentale Eigenschaft der Welt wurde meines Wissens nie diskutiert.
schokoschendrezki hat geschrieben: Und wenn sie wirklich nur im Kleinsten wirkt und im Makroskopischen nicht, dann existieren halt Mikro- und Makrowelt nebeneinander und getrennt.
Nein, so ist es gerade nicht. In der Makrowelt sind die Auswirkungen der QM lediglich verwaschen, so dass man sie nicht mehr wahrnimmt (siehe "Dekohärenz"). Von Weitem betrachtet ergeben die Pixel des Monitors auch ein kontinuierliches Bild.
Die QM gilt immer und überall. Die Makrowelt lässt sich in sehr guter Näherung aber klassisch beschreiben.
schokoschendrezki hat geschrieben: Und "nicht feststellen können" ist immer noch etwas anderes als "nicht sein".
Genau. Und darum ging es. In der Makrowelt können wir keinen Indeterminismus belegen. Ob die Natur im Mikroskopischen Indeterminisisch ist, ist für diese Feststellung irrelevant. Die QM liefert einen Mechanismus der der Makrowelt immer klassisch erscheinen lässt.
schokoschendrezki hat geschrieben: Denn wenn in jedem gegebenen Zustand alle zukünftigen Zustände enthalten sind, lässt sich die Zeit ebensogut auf einen Punkt zusammenziehen.
Theoretisch ja, aber in der Praxis macht die Nichtlinearität (-> Chaos) das unmöglich. Und daher macht es eben keinen Unterschied, ob die Welt fundamental deterministisch ist, oder nicht. Kurz:
Fundamentaler Determinismus -> Chaos -> Nicht exakt berechenbar
Fundamentaler Indeterminismus -> Nicht exakt berechenbar
Für uns macht es keinen Unterschied.

Irgendwie kommen wir immer aufs selbe Thema... ;)
Um vielleicht noch die Kurve zu kriegen, stelle ich fest, dass neuromorphe Prozessoren ohne Indeterminismus die Prozesse in Nervenzellen reproduzieren können.
Arbeit. Leben. Zukunft.
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

Perdedor hat geschrieben:(15 Aug 2017, 20:49)

Um vielleicht noch die Kurve zu kriegen, stelle ich fest, dass neuromorphe Prozessoren ohne Indeterminismus die Prozesse in Nervenzellen reproduzieren können.
kannst du das erklären? denn da kann ich dich nicht folgen.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Benutzeravatar
Perdedor
Beiträge: 3462
Registriert: Do 5. Jun 2008, 23:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Perdedor »

Nomen Nescio hat geschrieben: kannst du das erklären? denn da kann ich dich nicht folgen.
Es ging in diesem Strang ja um die Fähigkeiten von selbstlernenden Algorithmen und weitergehend um die Möglichkeit einer vollständigen Simulation des menschlichen Gehirns. Nun ist es so, dass die selbstlernenden Algorithmen, die auf "herkömmlichen" Rechnerstrukturen (von Neumann) laufen mit ganz erheblichen Kapazitätsproblemen konfrontiert sind, wenn sie komplexere Prozesse implementieren sollen, als einfache Bilder-, Spracherkennung oder Ähnliches. Das geht soweit, dass gefragt wird, wie realistisch es überhaupt sein kann, komplexe Gedankenprozesse in einer solchen Struktur zu simulieren.
Eine alternative Herangehensweise ist die Verwendung von sog. neuromorphen Chips:
https://de.wikipedia.org/wiki/Neuromorpher_Chip
Diese sind einem Nervensystem in vieler Hinsicht sehr ähnlich, so dass sie komplexere neuronale Prozesse wesentlich effizienter simulieren können. U.A. beim "Human Brain Project" werden diese Ansätze verfolgt.
Im Zusammenhang mit meiner (ewigen ;) ) Diskussion mit @schokoschendrezki fügte ich noch hinzu, dass diese Neurochips deterministisch sind.
Arbeit. Leben. Zukunft.
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Perdedor hat geschrieben:(15 Aug 2017, 20:49)

Ich weiß von keinem einzigen Philosophen, der vor der Entdeckung der QM auch nur annähernd deren Bedeutung und Implikationen erahnt hat. Das Bild des Indeterminismus war lediglich diffus vorhanden, meist in der Form von unscharfen Definitionen des freien Willens oder der Allmacht eines Gottes (beides historisch nur bedingt mit dem Determinismus vereinbar). Das Konzept der Unbestimmtheit, als fundamentale Eigenschaft der Welt wurde meines Wissens nie diskutiert.
Ich glaube, das ist nur die halbe Wahrheit. Der "Laplacesche Dämon", die Vorstellung einer absolut deteministischen Welt wurde zwar letzendlich erst von Physik und speziell Quantentheorie widerlegt und war auch irgendwo eine Zusammenfassung bisheriger Physik-Geschichte. Der Begriff tauchte aber erstmalig 1814 im Vorwort eines rein philosophischen Werks (von Laplace) auf. Und man kann nicht über Determinismus philosophieren ohne das Gegenbild des Indeterminismus dabei mitzudenken. Auch wenn man dieses Gegenbild (zunächst) verwirft.
Nein, so ist es gerade nicht. In der Makrowelt sind die Auswirkungen der QM lediglich verwaschen, so dass man sie nicht mehr wahrnimmt (siehe "Dekohärenz"). Von Weitem betrachtet ergeben die Pixel des Monitors auch ein kontinuierliches Bild.
Die QM gilt immer und überall. Die Makrowelt lässt sich in sehr guter Näherung aber klassisch beschreiben.
...
Genau. Und darum ging es. In der Makrowelt können wir keinen Indeterminismus belegen. Ob die Natur im Mikroskopischen Indeterminisisch ist, ist für diese Feststellung irrelevant. Die QM liefert einen Mechanismus der der Makrowelt immer klassisch erscheinen lässt.
...
Theoretisch ja, aber in der Praxis macht die Nichtlinearität (-> Chaos) das unmöglich. Und daher macht es eben keinen Unterschied, ob die Welt fundamental deterministisch ist, oder nicht. Kurz:
Fundamentaler Determinismus -> Chaos -> Nicht exakt berechenbar
Fundamentaler Indeterminismus -> Nicht exakt berechenbar
Für uns macht es keinen Unterschied.
...
Irgendwie kommen wir immer aufs selbe Thema... ;)
Um vielleicht noch die Kurve zu kriegen, stelle ich fest, dass neuromorphe Prozessoren ohne Indeterminismus die Prozesse in Nervenzellen reproduzieren können.
Messtechnisch macht es keinen Unterschied. Und mir ist andererseits schon klar, dass der Begriff der "Messung" in der Physik fundamental und nicht einfach nur technisch ist.

Aber gerade diese Diskussion ist eine der wichtigen Belege für mich, dass Philosophie und speziell vor allem Ontologie (Seins-Philosophie, Metaphysik) nicht einfach nur Quasselei oder abstraktes Gedankenspiel sondern notwendiger und unersetzbarer Teil der menschlichen Erkenntnisfähigkeit ist.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
Perdedor
Beiträge: 3462
Registriert: Do 5. Jun 2008, 23:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Perdedor »

schokoschendrezki hat geschrieben: Und man kann nicht über Determinismus philosophieren ohne das Gegenbild des Indeterminismus dabei mitzudenken.
Schlicht als Verneinung. Ich weiß aber von keinem Philosophen, der das vor der QM durchdiskutiert hätte. Die QM geht aber noch weiter. Die Unbestimmtheit, also die Notwendigkeit einer nichtrealistischen Beschreibung der Welt, hat meines Wissen niemand vorher auch nur geahnt. Das erklärt auch die Ablehnung, selbst von Genies wie Einstein, die die QM erfahren musste: Das durch die QM als notwendig erkannte Weltbild ist vollkommen neu und man konnte auf keine Erfahrungen aus der abendländischen Philisophietradition zurückgreifen.
schokoschendrezki hat geschrieben: Aber gerade diese Diskussion ist eine der wichtigen Belege für mich, dass Philosophie und speziell vor allem Ontologie (Seins-Philosophie, Metaphysik) nicht einfach nur Quasselei oder abstraktes Gedankenspiel sondern notwendiger und unersetzbarer Teil der menschlichen Erkenntnisfähigkeit ist.
Natürlich benötigt man allein für die Definition von Naturwisenschaften eine gewisse Menge Metaphysik. Wenn Popper bspw Falisfizierbarkeit fordert, begründet er das ja nicht über die Naturwissenschaften, sondern umgekehrt. Sie ist eine Voraussetzung für die Naturwissenschaft. Durch die Erkenntnisse der QM mussten philosophischen Grundlagen entsprechend angepasst werden.
Historisch betrachtet gingen die naturwissenschaftlichen Erkenntnisse aber der metaphysischen Einordnung voraus.
Arbeit. Leben. Zukunft.
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Perdedor hat geschrieben:(16 Aug 2017, 13:34)
Schlicht als Verneinung. Ich weiß aber von keinem Philosophen, der das vor der QM durchdiskutiert hätte. Die QM geht aber noch weiter. Die Unbestimmtheit, also die Notwendigkeit einer nichtrealistischen Beschreibung der Welt, hat meines Wissen niemand vorher auch nur geahnt.
Ich wüsste auch von keinem. Die Philosophen hatten "Indeterminismus" vor allem im Zusammenhang mit der Frage des Freien Willens durchdacht. Dies hat aber mit dem physikalischen Indeterminismus der QM wenig zu tun. Es ist eine andere Frage.

Auch die (seit der Antike bestehende) Dialektik in der Philosophie ist eine Methode der Erkenntnisgewinnung, indem sie aus These und Antithese eine Synthese herzustellen versucht. Bei Hegel allerdings wird diese Dialektik der Wissensgewinnung (wenn ichs recht verstanden habe) gewissermaßen wieder zurückprojiziert auf die Realität. Dialektik ist für Hegel auch eine Seinsweise der Realität und nicht nur eine Methode des Denkens.
Damit würde die Hegelsche Dialektik auch mit dem Welle-Teilchen Dualismus keine Schwierigkeiten haben, denn der jeweilige Meßprozeß, der entweder Teilchen oder Wellen nachweist, unterscheidet sich eben in der Hinsicht auf den Meßprozeß selbst. Beide Aussagen sind wahr und wären auf einer höheren Stufe zu vereinen, wie es z.B. der Formalismus der Quantenphysik auch tut. Für Hegel ist dieses Denken jedoch nicht nur bloßes Denken, es ist zugleich eine reale Eigenschaft der Dinge.
Aus: Hegels Logik und die Ergebnisse der Quantenphysik: https://www.alexander-klier.net/wp-cont ... -Logik.pdf

Ich würde auch mal zu denken geben, dass die asiatischen Philsophien oder das, was in Asien unseren Philosophien entspricht, insbesondere indische, ganz grundsätzlich offener für Zweideutigkeiten aller Art und eine nicht-mechanische Weltsicht sind. Ich kanns nicht näher formulieren, weil ich davon nur eine sehr sehr ungefähre und nebulöse Vorstellung habe.

Aber lassen wir das mal als nicht eben uninteressante Fragestellung stehen.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
H2O
Moderator
Beiträge: 46981
Registriert: So 13. Sep 2015, 13:49
Wohnort: Zachodniopomorze

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von H2O »

In DIE ZEIT #14, 2018-03-28, Wissen, ab Seite 37 "Was macht uns künftig noch einzigartig?"

führt der Wissenschaftsredakteur Ulrich Schnabel den Leser durch die jüngsten Entwicklungen der Künstlichen Intelligenz (KI) im Fachgespräch mit führenden Fachleuten dieses Forschungsgebiets.

Die Spannweite der Zukunftserwartungen dieser Fachleute reicht von der Vorstellung,
  • daß der Mensch seine bestimmende Bedeutung an diese viel leistungsfähigeren Maschinen verlieren wird, die schließlich das Universum erobern werden... wozu der Mensch in seine Anfälligkeit ganz ungeeignet sei... so Jürgen Schmidthuber

    daß wir den erreichten Stand der KI angesichts so vieler ungelöster Probleme auf diesem Gebiet überschätzen, so daß nicht zu erwarten sei, daß in absehbarer Zeit Roboter zu uns aufschlössen. Insbesondere das im Menschen vorhandene Mitgefühl, sein Kunstsinn mit dessen ungeheurer Vielseitigkeit,... so Luc Steels

    daß das, »Was den Menschen von der Maschine unterscheidet,ist, dass wir letztendlich liebende und geliebte Wesen sind. Wir wurden geboren und sind durch die Liebe unserer Eltern groß geworden. Ohne diese Liebe wären wir gestorben. Deshalb betonen ja auch viele Religionen die Fähigkeit zum Mitgefühl, zu Empathie und Nächstenliebe.«... so Wolfgang Hildesheim
In diesem Spannungsfeld äußern sich weitere einflußreiche KI-Forscher mit der tröstlichsten Aussicht darauf
  • daß Maschinen uns als objektive Berater dabei helfen könnten, unsere ethischen ­Probleme zu lösen... so Thomas Metzinger
Wenn dieser kleine Beitrag Ihre Neugierde geweckt haben sollte, dann haben Sie eine aufregende Lesestunde vor sich!
Benutzeravatar
Ein Terraner
Beiträge: 14308
Registriert: Sa 7. Mai 2016, 19:48
Wohnort: München

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Ein Terraner »

Alter Stubentiger hat geschrieben:(08 Aug 2017, 14:58)

So eine Maschine wird also morgens ihren Weg zum Bäcker finden?
Ich sag nur Navi.
Benutzeravatar
Provokateur
Beiträge: 12535
Registriert: Sa 3. Jan 2015, 16:44
user title: Alpha by choice&Liberalpatriot
Wohnort: जर्मनी

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Provokateur »

Ein Terraner hat geschrieben:(28 Mar 2018, 23:55)

Ich sag nur Navi.
Es gibt ja schon Versuche, Paketboten durch selbst navigierende Roboter abzulösen. Diese laufen vielversprechend.
Harry riss sich die Augen aus dem Kopf und warf sie tief in den Wald. Voldemort schaute überrascht zu Harry, der nun nichts mehr sehen konnte.
twitter.com/Provokateur_Tom
Just Me
Beiträge: 114
Registriert: Fr 6. Okt 2017, 09:32

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Just Me »

H2O hat geschrieben:(28 Mar 2018, 23:40)

In DIE ZEIT #14, 2018-03-28, Wissen, ab Seite 37 "Was macht uns künftig noch einzigartig?"

führt der Wissenschaftsredakteur Ulrich Schnabel den Leser durch die jüngsten Entwicklungen der Künstlichen Intelligenz (KI) im Fachgespräch mit führenden Fachleuten dieses Forschungsgebiets.

Die Spannweite der Zukunftserwartungen dieser Fachleute reicht von der Vorstellung, ... daß wir den erreichten Stand der KI angesichts so vieler ungelöster Probleme auf diesem Gebiet überschätzen, so daß nicht zu erwarten sei, daß in absehbarer Zeit Roboter zu uns aufschlössen. Insbesondere das im Menschen vorhandene Mitgefühl, sein Kunstsinn mit dessen ungeheurer Vielseitigkeit,... so Luc Steels
Es ist eine Ironie der Geschichte, dass "Machtübernahme" (lies: "Aufschließen zum Menschen") keineswegs durch "Einholen"** realisiert wird. Und es ist ein Treppenwitz der Geschichte, dass "Machtübernahme" stets mit "massiven Empathie-Lücken" einher ging: Die Menschen machen in ihrer gesamten Geschichte stets die größten Empathie-Schweine zu ihren Anführern. Vergleichsweise ist das gut am Ende der Weimarer Republik nachzuvollziehen: Hitler wäre ein kleiner Dorf-Prediger geblieben, hätten ihn nicht Menschen, die glaubten, in seinem Windschatten segeln zu können, hofiert. Und er wäre nie Diktator geworden und hätte nie die Demokratie abschaffen können, hätten nicht pathologische Konservative und Reaktionäre ihn gestützt und ihm die Macht in die Hand gedrückt. Er musste nichts "an sich reißen"; man gab es ihm aus freien Stücken. Sukzessive. Sich der Realität verweigernd und stattdessen auf "Hoffnung & Glaube, dass es sich schon irgendwann irgendwie einrenken würde" setzend.

**) ad "Einholen": Im "real existierenden Sozialismus der DDR" gab es einen Aphorismus der SED, der da lautete: "Überholen ohne Einzuholen". Das darfst du auch hier gern für bare Münze nehmen: Die KI muss dich nicht "einholen". Sie muss keine Kunst beherrschen. Es reicht, wenn sie DICH beherrscht. Und sei es nur, dass dein Name auf einem Ausdruck eines Rasterfahndungs-Algorithmus steht. Dann bekommst du sehr schnell und sehr handfest eine Vorstellung davon, wie unwichtig Kunst bei der Machtausübung wird; ... aber auch, wie wenig Empathie der Mensch eigentlich tatsächlich besitzt. ;)

Abgesehen davon: Britische Elite-Mathematiker des 19. Jahrhunderts bewiesen an der Tafel zweifelsfrei, dass Züge und Autos niemals schneller als etwa 55 km/h fahren könnten (weswegen übrigens auch der Mensch niemals fliegen können würde). Würde der Zug schneller fahren, so diese Experten, würden alle Insassen darin ersticken. ... Heute knattern wir mit bis zu 400 km/h durch die Landschaft und fliegen - bald wohl wieder - mit Überschall-Geschwindigkeit über die Ozeane. Und ersticken kann man nur, wenn bei der Bahn mal wieder die Klimaanlagen ausfallen. Und was sagte Bill Gates noch im Jahr 1986; also vor kaum mehr als 30 Jahren? Genau! "Mehr als 640 kB RAM wird niemals benötigt."; während IBM, der große "Computer-Konzern", ein paar Jahre früher schon sagte: "Der weltweite Bedarf an Großrechnern erschöpft sich in der Zahl Fünf. Wir sehen daher keinen ausreichenden Bedarf, in dieser Richtung weiterzuforschen." Und SIEMENS, der große "Elektro-Konzern", ließ das Fax-Gerät über 10 Jahre in der Schublade verrotten, bis das Patent verfallen war und ein japanischer Kleinunternehmer es endlich bauen konnte. Der Grund? "Es gibt keinen Bedarf, Briefe auf elektrischen Wegen zu verschicken."

Will sagen: In der Geschichte haben sich - vor allem(!) - die großen Geister ihres Fachs stets geirrt und wurden - und das in immer schnellerer Abfolge - von der Realität Lügen gestraft. Das ist nicht tragisch; schließlich ist "Irren" die Haupteigenschaft aller Menschen. Das bedeutet aber auch, dass alles - ABSOLUT ALLES -, was heute gesagt wird, schon morgen früh nicht mehr wahr ist. :D
Benutzeravatar
imp
Beiträge: 16690
Registriert: Fr 14. Jul 2017, 20:37
user title: Freiheit ist unser Ideal.

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von imp »

Just Me hat geschrieben:(29 Mar 2018, 09:10)

Und was sagte Bill Gates noch im Jahr 1986; also vor kaum mehr als 30 Jahren? Genau! "Mehr als 640 kB RAM wird niemals benötigt."
Da hatte er auch Recht. Für die Plattform, auf die er sich bezog, war es niemals nötig.
Wobei das Zitat hieß "ought to be enough" und es ist auch umstritten, ob das wirklich so gesagt wurde oder falsch zugeschrieben ist.
"Don't say words you gonna regret" - Eric Woolfson
Benutzeravatar
H2O
Moderator
Beiträge: 46981
Registriert: So 13. Sep 2015, 13:49
Wohnort: Zachodniopomorze

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von H2O »

Just Me hat geschrieben:(29 Mar 2018, 09:10)
...
Will sagen: In der Geschichte haben sich - vor allem(!) - die großen Geister ihres Fachs stets geirrt und wurden - und das in immer schnellerer Abfolge - von der Realität Lügen gestraft. Das ist nicht tragisch; schließlich ist "Irren" die Haupteigenschaft aller Menschen. Das bedeutet aber auch, dass alles - ABSOLUT ALLES -, was heute gesagt wird, schon morgen früh nicht mehr wahr ist. :D
Wenn Sie den DIE ZEIT Beitrag gelesen hätten, dann wären Ihnen Ihre hier geäußerten Bedenken in mehrfacher Ausfertigung dort begegnet. Es ist nicht sauber, einen von vier meiner schon ausgewählten Beiträge heraus zu picken und dann eine Breitseite auf die betriebsblinde Fachwelt ab zu feuern. Der Umgang des Menschen mit seinen höchst verwirrenden Irrtümern wurde übrigens als besonderer Vorteil genannt, den eine Maschine nach allen bisher gemachten Erfahrungen niemals erreichen wird.
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Ein Terraner hat geschrieben:(28 Mar 2018, 23:55)

Ich sag nur Navi.
Aber wie kommt der Körper hin? Tür aufschließen, die 3 Treppenstufen runter, über die Straße laufen, 1 Häuserblock weiterlaufen, auf Fußgänger, Radfahrer und rangierende Autos achten, die Bordsteinkante, Kommunikation mit der Verkäuferin, bezahlen, Tüte mit Brötchen greifen und wieder zurück. Ein 8jähriger Junge schafft dass locker. Aber für Roboter? Eine unlösbare Aufgabe.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Provokateur hat geschrieben:(29 Mar 2018, 08:17)

Es gibt ja schon Versuche, Paketboten durch selbst navigierende Roboter abzulösen. Diese laufen vielversprechend.
Wo? Nicht immer solche Behauptungen in den Raum stellen. Was ist also "vielversprechend"?
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Ein Terraner
Beiträge: 14308
Registriert: Sa 7. Mai 2016, 19:48
Wohnort: München

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Ein Terraner »

Alter Stubentiger hat geschrieben:(29 Mar 2018, 16:04)

Aber wie kommt der Körper hin? Tür aufschließen, die 3 Treppenstufen runter, über die Straße laufen, 1 Häuserblock weiterlaufen, auf Fußgänger, Radfahrer und rangierende Autos achten, die Bordsteinkante, Kommunikation mit der Verkäuferin, bezahlen, Tüte mit Brötchen greifen und wieder zurück. Ein 8jähriger Junge schafft dass locker. Aber für Roboter? Eine unlösbare Aufgabe.
Das ist doch alles nur eine Frage von Mechanik und Zeit.
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Ein Terraner hat geschrieben:(29 Mar 2018, 17:16)

Das ist doch alles nur eine Frage von Mechanik und Zeit.
Ist dass so? Ich schätze meinen Computer. Habe ich selber zusammengebaut. Ich habe früher auch auf Maschinenebene programmiert. Vielleicht fehlt mir deshalb dieser Glaube an die Allmacht der Algorithmen und der Robotertechnik. Vielleicht sehe ich deshalb die Grenzen.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Antworten