Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Moderator: Moderatoren Forum 4

Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

odiug hat geschrieben:(09 Aug 2017, 22:37)

Was wir von AI zu erwarten haben, kann man hier nachlesen:
http://www.dailymail.co.uk/sciencetech/ ... ching.html
Solange man sie noch abschalten kann, ist ja alles gut.
Schlimm wird es, wenn nicht. :eek:
Wobei ... so einen großen Unterschied zu heute macht das auch nicht. :(
Ich sehe das wesentlich entspannter. Tay ist vor allem der personifizierte - äh, "maschinisierte" - Konformismus. Aber auch wenn es natürlich nur Spekulation ist: So einfach wird der Bot nicht programmiert sein, dass er einfach nur Mehrheitsmeinungen nachplappert. Ich vermute, er sucht zunächst per Mustererkennung Konversationsstrukturen mit einem dynamischen Selbstorganisationspotenzial und einer strukturellen Abgrenzungsfähigkeit. Das ist alles andere als trivial. Vielleicht so wie aus verstreuten Einzelmessungen der Meeresströmungen, den Golfstrom herauszufiltern. Und versucht sich darin einzuordnen. Und hier auch nicht einfach als "Durchschnitt" sondern mit begrenztem Individualverhalten.

Ich sag mal zwei Sachen dazu: Als wenn man solches Verhalten nicht ebenso bei menschlichen Diskutanten erkennen könnte. Und: Als wenn dies nicht einfach und vor allem eine Reflexion schon bestehender Realität wäre.

Auch die Befürchtung, Bots könnten Börsencrashs oder politisches Chaos hervorrufen, teile ich nicht. Nicht, dass ich nicht wüsste, dass es Crashs und Chaos ja gibt und gab: Aber solche Bots weisen kein höheres Chaosstiftungspotenzial auf als Menschen.

Dass Bots eine bestehende politische oder gesellschaftliche Strömung verstärken können, ist trivialerweise richtig. Das tat aber vor bereits mehreren hundert Jahren die Erfindung des Buchdrucks auch. Wollen wir deshalb auf Bücher verzichten? Das Problem ist nicht der Buchdruck sondern die Chance, die sich einem Hetzer bietet, damit sein agressives Potenzial zu verbreiten. Der "Hexenhammer" und ähnliches waren eine der ersten Bücher, die durch den Buchdruck weite Verbreitung fanden und die maßgeblich zum Umsichgreifen der Hexenverfolgung beitrugen. Das Beispiel zeigt, dass das allgemeinere Problem nicht erst mit selbstlernenden Algorithmen und künstlichen Bots in der Welt ist.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

schokoschendrezki hat geschrieben:(09 Aug 2017, 22:26)

Bei denen, die sich schon jetzt von ihrem TV-Gerät sagen lassen, was sie schauen sollen, ist diese Angst auch berechtigt. "Autonomie" heißt wörtlich "Selbstbestimmtheit". Wer ein (möglichst weitgehend) selbstbestimmtes Leben führt, benutzt Technik einfach.

Auch "selbstlernende", dynamische, selbstreflektierende, selbstoptimierende Programmstrukturen im allgemeinen, sind letztlich nichts anderes als effektivere Methoden zur Komplexitätserschließung als statische Programmierung. Sie führen nicht grundsätztlich aus der Klasse der Algorithmen hinaus, die durch binär arbeitende Maschinen erstellbar sind. "Lernen" im eigentlichen Sinne ist alles andere als identisch mit "Selbstoptimierung".
Jo. Kann man so sagen. So ich es verstehe kann eine KI nur weitere Programme verbessern/erstellen. Sie kann aber sich selbst nicht weiter entwickeln da Programm und Daten in heutigen Rechnern immer streng voneinander getrennt sind. Oder habe ich da was falsch verstanden?
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

schokoschendrezki hat geschrieben:(10 Aug 2017, 07:20)

Auch die Befürchtung, Bots könnten Börsencrashs oder politisches Chaos hervorrufen, teile ich nicht. Nicht, dass ich nicht wüsste, dass es Crashs und Chaos ja gibt und gab: Aber solche Bots weisen kein höheres Chaosstiftungspotenzial auf als Menschen.
ohne das eingreifen wenn kursen abstürzen wäre ein crash nicht nur wahrscheinlich, sondern sicher passiert.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Shellsort
Beiträge: 65
Registriert: Fr 28. Jul 2017, 19:54

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Shellsort »

Alter Stubentiger hat geschrieben:(09 Aug 2017, 18:12)
Für Algorithmen ohne ausreichende Sensorik ist es aber unendlich schwer.
Nehmen wir einmal an, du (als intelligentes Lebewesen)bist in einem Raum eingesperrt, aus dem du fliehen musst. Dazu musst du nur zur Türe gehen und sie öffnen.

Nur dass du keine deiner Sinne benutzen darfst.
Da haben wir die selbe Situation.
Meine Fragen sind nur Fragen, und gegen niemanden gerichtet.
Auch wenn sie blöd klingen...
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Alter Stubentiger hat geschrieben:(10 Aug 2017, 11:59)

Jo. Kann man so sagen. So ich es verstehe kann eine KI nur weitere Programme verbessern/erstellen. Sie kann aber sich selbst nicht weiter entwickeln da Programm und Daten in heutigen Rechnern immer streng voneinander getrennt sind. Oder habe ich da was falsch verstanden?
Naja, sind sie eigentlich nicht. Der Trick bei den selbstlernenden Programmen besteht ja gerade darin, dass sie selbst zu veränderlichen Daten gemacht werden und eben nicht mehr nur statisch irgendwelche getrennten Daten verändern (sondern sich selbst).

Der wesentliche Punkt besteht (meiner Ansicht nach) darin, dass auch sie keine spontanen, unlogischen, einer gegebenen Optimierungsaufgabe widersprechenden Aktionen machen könne, weil sie eben binär und deterministisch bleiben. Auch bei einem selbstlernendes Programm, das einfach mal so den Wasserhahn aufdreht, wenn im Keller das Wasser ansteigt, würde jeder Ingenieur dir einen Vogel zeigen, wenn Du behauptest, genau darin bestünde die prinzipielle Überlegenheit (analoger) Lebewesen. Wobei analog im Wesentlichen meint: Fähig zur Erzeugung eines "echten" Indeterminismus.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
Perdedor
Beiträge: 3462
Registriert: Do 5. Jun 2008, 23:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Perdedor »

schokoschendrezki hat geschrieben: Nich die Komlexität, Speicherfähigkeit und Operationsgeschwindigkeit digitaler Maschinen unterscheidet sich grundlegend (und, da rein theoretisch und logisch auch für immer) vom menschlichen Gehirn. Sondern die Frage Determinismus (digitaler Computer) und Indeterminismus (Mensch).
Es ist umstritten, ob der Nichtdeterminismus der Quantenmechanik im Gehirn eine Rolle spielt.
Das Problem sind in der Tat eher die herkömmlichen Rechnerstrukturen (von Neumann), mit denen eine Simulation des Gehirns mittels Algorithmen einfach zu aufwändig ist. Besser geeignet sind neuromorphe Chips, wie sie z.B. beim Human Brain Project im großen Stil untersucht werden.
https://de.wikipedia.org/wiki/Neuromorpher_Chip
Es ist absehbar, dass diese bereits mittelfristig Teile des menschlichen neuronalen Systems ersetzen können (künstliche Retina...). Beim HBP sind Teile von Rattenhirnen simuliert worden (was allerdings bereits vorher mit herkömmlichen Strukturen gelang).

Zur Eingangsfrage:
Die eher abwartende Haltung in der öffentlichkeit hängt wohl vor allem damit zusammen, dass die SciFi Autoren der Vergangenheit zu optimistisch waren, was die maschinelle Intelligenz anbelangt. Die konkreten, für die Allgemeinheit greifbaren Fortschritte sind überschaubar. Daher herrscht wohl eine gewisse Desillusionierung vor, was ich aber nicht als "Unterschätzung" bezeichnen würde.
Arbeit. Leben. Zukunft.
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Perdedor hat geschrieben:(10 Aug 2017, 18:20)

Es ist umstritten, ob der Nichtdeterminismus der Quantenmechanik im Gehirn eine Rolle spielt.
Das Problem sind in der Tat eher die herkömmlichen Rechnerstrukturen (von Neumann), mit denen eine Simulation des Gehirns mittels Algorithmen einfach zu aufwändig ist. Besser geeignet sind neuromorphe Chips, wie sie z.B. beim Human Brain Project im großen Stil untersucht werden.
https://de.wikipedia.org/wiki/Neuromorpher_Chip
Es ist absehbar, dass diese bereits mittelfristig Teile des menschlichen neuronalen Systems ersetzen können (künstliche Retina...). Beim HBP sind Teile von Rattenhirnen simuliert worden (was allerdings bereits vorher mit herkömmlichen Strukturen gelang).
Ich habe keinen Zweifel daran, dass es auf der Basis von Neurochips schon in Kürze etwa künstliche Augen mitsamt künstlichen Sehzentren geben wird, die die Leistungsfähigkeit des menschlichen Seh-, Erkennungs und vor allem Zuordnungs-, Klassifikations-, Musterkennungs-Systems bei weitem übertreffen. Aber genauso wie es es fraglich ist, ob der Nichtdeterminismus der QT im Gehirn eine Rolle spielt, scheint es mir fraglich, ob Gedanken ab einer gewissen Abstraktionsstufe (ich meine wirklich Gedanken und nicht Grundemotionen wie Angst oder Freude) tatsächlich lokalisierbar, materiell eingrenzbar, neuronal zuordbar sind (selbst wenn sie realiter sein sollten). Aber vielleicht hängt ja beides sogar zusammen. Dass also - mal ganz schwammig formuliert - an den Kipp-Punkten eines deterministischen Chaos Quantenprozesse eben gerade die "Flügelschläge des Schmetterlings" sind, die den Orkan in Amerika - sprich, den endgültig kondensierten Gedanken, hervorbringen.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

schokoschendrezki hat geschrieben:(10 Aug 2017, 21:15)

scheint es mir fraglich, ob Gedanken ab einer gewissen Abstraktionsstufe (ich meine wirklich Gedanken und nicht Grundemotionen wie Angst oder Freude) tatsächlich lokalisierbar, materiell eingrenzbar, neuronal zuordbar sind (selbst wenn sie realiter sein sollten).
ja, vor einigen monaten gabs darüber ein bericht. aber, und das ist das problem, was stellen sie dar. der vergleich damals lautete »wir brauchen einen viel großeren stein von rosetta um jene sprache zu entziffern«.
was mich tröstet, ist daß in den 50 jahren - als watson und cricks die struktur des DNA-molekuls entdeckt hatten - auch gedacht wurde daß man es aber nie entziffern könnte. und um den siebziger jahre hatte man entdeckt, daß es nonsens codonen gab. und siehe mal wie weit sie jetzt sind.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Benutzeravatar
Perdedor
Beiträge: 3462
Registriert: Do 5. Jun 2008, 23:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Perdedor »

schokoschendrezki hat geschrieben: Aber genauso wie es es fraglich ist, ob der Nichtdeterminismus der QT im Gehirn eine Rolle spielt, scheint es mir fraglich, ob Gedanken ab einer gewissen Abstraktionsstufe (ich meine wirklich Gedanken und nicht Grundemotionen wie Angst oder Freude) tatsächlich lokalisierbar, materiell eingrenzbar, neuronal zuordbar sind (selbst wenn sie realiter sein sollten).
Was heißt "zuordbar"? Gedanken sind natürlich Prozesse bei denen sehr viele Neuronen zusammenspielen. Insofern sind sie nicht an einem bestimmten Punkt lokalisierbar. Materiell eingrenzbar sind sie natürlich. Nämlich auf den menschlichen Körper.
schokoschendrezki hat geschrieben: Dass also - mal ganz schwammig formuliert - an den Kipp-Punkten eines deterministischen Chaos Quantenprozesse eben gerade die "Flügelschläge des Schmetterlings" sind, die den Orkan in Amerika - sprich, den endgültig kondensierten Gedanken, hervorbringen.
Ja, vielleicht. Aber der Clou bei dem Schmetterling ist ja gerade, dass es in diesem Beispiel keine Quantenprozesse braucht. Deterministisches Chaos ist deterministisch und lässt sich am Computer simulieren. Beim Wetterbeispiel ist das Problem, dass auf absehbare Zeit kein Computer leistungsfähig genug sein wird, die gesamte Atmosphäre zu simulieren. Das Gehirn ist im Vergleich dazu wesentlich kleiner.
Arbeit. Leben. Zukunft.
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Perdedor hat geschrieben:(10 Aug 2017, 21:50)

Was heißt "zuordbar"? Gedanken sind natürlich Prozesse bei denen sehr viele Neuronen zusammenspielen. Insofern sind sie nicht an einem bestimmten Punkt lokalisierbar. Materiell eingrenzbar sind sie natürlich. Nämlich auf den menschlichen Körper.



Ja, vielleicht. Aber der Clou bei dem Schmetterling ist ja gerade, dass es in diesem Beispiel keine Quantenprozesse braucht. Deterministisches Chaos ist deterministisch und lässt sich am Computer simulieren. Beim Wetterbeispiel ist das Problem, dass auf absehbare Zeit kein Computer leistungsfähig genug sein wird, die gesamte Atmosphäre zu simulieren. Das Gehirn ist im Vergleich dazu wesentlich kleiner.
Es ist auf jeden Fall ein weiter Weg. Ich fühle mich in meiner Ansicht bestärkt das die Hype um die Algorithmen doch ziemlich überzogen ist. Wie eben die früheren Bestrebungen mit spezialisierten Programmiersprachen wie Lisp.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
immernoch_ratlos
Beiträge: 2344
Registriert: So 10. Apr 2016, 17:59

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von immernoch_ratlos »

Um wenigstens eine inzwischen sehr aktiven "AI" auf der Spur zu bleiben, habe ich es mal mit : 2017:"Watson in der Medizin" "Ungefähr 62 Ergebnisse" erhalten.

Wenn auch "schon" mehr als drei Jahre alt (14.02.2014) enthält dieser Artikel der FAZ Gläserner Patient Der Computer ersetzt den Arzt neben den Ängsten aller Beteiligten auch eine Reihe sehr interessanter Daten an denen "Mensch" schlicht nichtmehr "vorbeikommt" und deren Verarbeitung ohne leistungsfähige Algorithmen und immer bessere Hardware längst vieles nicht einmal im Ansatz möglich wäre.
FAZ hat geschrieben:...Echtzeitdaten aus dem Körper werden immer wertvoller. Jeden Tag werden allein im amerikanischen Gesundheitssektor mittlerweile fünfzehn Petabyte Daten verarbeitet. Das ist eine Eins mit fünfzehn Nullen oder etwa achtmal so viele Daten, wie von Google Earth insgesamt gemanagt werden. Und mit jedem Projekt, das die Datensammlung weiter vernetzt, wachsen die Datenpools exponentiell: Die „Konvergenz“ der Sensoren füttert nach den Vorstellungen ihrer Erfinder eine medizinische Informationsbörse: Das Auto sammelt bald Daten über Herz- und Atemfrequenz, die Uhr ermittelt Schrittfrequenz und Bewegungsmuster, im Bad werden Zucker- und Blutwerte, unter der Matratze wird das Schlafverhalten erfasst.
Auch typisch für D :
FAZ hat geschrieben:Nirgends, das zeigt die Accenture-Studie unmissverständlich, sei der Widerstand so groß wie in Deutschland - und zwar auf professioneller Seite: siebzig Prozent der Patienten, aber nur zwölf Prozent der Ärzte wollen Zugang zu elektronischen Patientenakten mit den entsprechenden Daten.

Oder nehmen wir die „Silver Surfer“, also die über 65 Jahre alten, internetaffinen Senioren. Zwei Drittel im Land wollen der Umfrage zufolge „ihre Gesundheit durch Digitalisierung und E-Health-Lösungen verstärkt selbst managen“, ein Viertel zeichnet angeblich schon heute die eigene Gesundheitshistorie auf, ein Drittel dokumentiert bereits regelmäßig Gesundheitswerte wie Gewicht und Blutdruck im eigenen Computer.
Einmal gesammeltes und verifiziertes Wissen bleibt erhalten - im Gegensatz zum menschlichen Träger, mit dessen Tod all sein Wissen, all seine Erfahrungen unwiederbringlich verloren gehen, ist der Inhalt einer Datenbank deutlich überlebensfähiger. Kommt nun die inzwischen verfügbare AI dazu und das "zwischendrin Verstehen" von Zusammenhängen wie sie das Watson System inzwischen nachweislich aufweist, ist die wechselseitige Beeinflussung zwischen Mensch und Maschine "irgendwo" ein Akt des Verstehens der einmal implementiert - gleichgültig durch wen - nichtmehr rückgängig gemacht werden kann. Es sei den "man" zerstört das gesamte System.

So ist der Übergang fließend und dies :
FAZ hat geschrieben:...„Kraut und Rüben“, so hat Sonja Zillner von Siemens die Erkenntnisse zusammengefasst, die sie in einer Auftragsstudie der Europäischen Kommission hinsichtlich der Datenstandards ermittelt hat. Mit anderen Worten: Gemessen wird, verstanden wird nichts. Mit bis zu siebzig Software-Applikationen wird so ein Krankenhaus heute betrieben, und jede Computeranwendung hat ihr eigenes Vokabular. Genominformationen, Laborwerte, Röntgenbilder, Verschreibungen - schon die medizinischen Basisdaten, soweit sie erfasst werden, lassen sich nicht ohne Weiteres zusammenführen und nach den annoncierten Effizienzkriterien sinnvoll nutzen. Kein Ökosystem, eher schon ein Flickenteppich von Systemen. Von Harmonisierung ist die Rede und von Datenverdichtung, von „toxischen Daten“ gar, die den Arzt eher verwirren, als eine Entscheidungshilfe sind. Trotzdem bleibt man dabei: „Galileos Programm muss weiterlaufen“, forderte Markus Löffler von der Universität Leipzig. Was messbar ist, muss gemessen und bezeichnet werden.
wird dann der Vergangenheit angehören. Mit zunehmender Vernetzung nicht nur dieser Systeme unter der "Haube" von ausgefeilten Systemen mit ständig optimierten und auch selbst optimierenden Algorithmen, mehr (zunächst) theoretische Macht anhäufen. Wer will dann noch klar entscheiden wer tatsächlich Entscheidungen trifft ? Etwas, zu was angeblich nur Menschen fähig sein sollen. Gerade Sapiens, dessen Hirnleistung die allermeiste Zeit mit selbsterzeugten Mythen beschäftigt ist, der über keinerlei "Algorithmen" verfügt, welche sein eigenes Wohl ohne Wehe auch nur im Ansatz in den Vordergrund des Handelns stellt.

Würde man einen Algorithmus entwickeln, der z.B. dieses Forum auf Mythen (Religion - Ideologie - usw.) untersucht und alle solcherart substanzlosen Inhalte verwerfen würde, wie viel oder schlimmer wie wenig vom derzeitigen Inhalt bliebe da übrig ? Nun das tut wohl niemand, doch was, wenn sich eine "Watson-Ableger" z.B der Rechtswissenschaft annimmt ? Urteile und alles was damit zusammenhängt, ein weiteres Feld für kognitive AI ....
"Wenn der Wind der Veränderung weht, bauen die einen Mauern und die anderen Windmühlen." (aus China)
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Perdedor hat geschrieben:(10 Aug 2017, 21:50)

Was heißt "zuordbar"? Gedanken sind natürlich Prozesse bei denen sehr viele Neuronen zusammenspielen. Insofern sind sie nicht an einem bestimmten Punkt lokalisierbar. Materiell eingrenzbar sind sie natürlich. Nämlich auf den menschlichen Körper.



Ja, vielleicht. Aber der Clou bei dem Schmetterling ist ja gerade, dass es in diesem Beispiel keine Quantenprozesse braucht. Deterministisches Chaos ist deterministisch und lässt sich am Computer simulieren.
Eben. Dass Computer mit dem deterministischen Chaos des Wettergeschehens noch lange überfordert sein werden, ist ja nur ein technischer Aspekt. Indeterminismus ist nicht einfach eine (erreichbare) Grenze wachsender Komplexität von deterministischem Chaos. Dass die Welt indeterministisch sein muss, ist auch gar keine naturwissenschaftliche oder mathematisch-logische sondern eine philosophisch-ontologische Erkenntnis. Auch eine noch so komplexe deterministische Welt wäre letztendlich ein aufgezogenes Uhrwerk. Zu welchem Zweck? Mit welchem Ziel? Es ist doch bemerkenswert, dass ausgerechnet mit dem Determinismus (Newton usw.) Metaphysik und Religion Einzug ins Weltbild hält. Die Planetenbahnen waren schon immer auch Sinnbild für göttliches Tun.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
Perdedor
Beiträge: 3462
Registriert: Do 5. Jun 2008, 23:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Perdedor »

schokoschendrezki hat geschrieben: Dass die Welt indeterministisch sein muss, ist auch gar keine naturwissenschaftliche oder mathematisch-logische sondern eine philosophisch-ontologische Erkenntnis.
Es führt vielleicht etwas weit vom Thema weg, aber hier muss ich meine Bedenken vortragen.
Dass die Welt indeterministisch ist, ist eine rein naturwissenschaftliche Erkenntnis (Quantenmechanik, Unschärferelation, Bellsche Ungleichung...). Gäbe es diese Erkenntnis nicht, sähe ich keinen Grund das Uhrwerk-Bild zu verwerfen. Gerade das Schmetterlingsbeispiel zeigt ja, dass man den Unterschied im Makroskopischen ohnehin nicht feststellen würde. Die QM sehen wir nur im Kleinsten wirken. Unsere täglichen Erfahrungen sehen mit und ohne Indeterminismus gleich aus.
schokoschendrezki hat geschrieben: Die Planetenbahnen waren schon immer auch Sinnbild für göttliches Tun.
Aber eben nur bis Newton & Co. Danach folgten sie aus den Gesetzen der Gravitation.
Arbeit. Leben. Zukunft.
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Beitrag von schokoschendrezki »

Perdedor hat geschrieben:(14 Aug 2017, 19:21)

Es führt vielleicht etwas weit vom Thema weg, aber hier muss ich meine Bedenken vortragen.
Dass die Welt indeterministisch ist, ist eine rein naturwissenschaftliche Erkenntnis (Quantenmechanik, Unschärferelation, Bellsche Ungleichung...). Gäbe es diese Erkenntnis nicht, sähe ich keinen Grund das Uhrwerk-Bild zu verwerfen. Gerade das Schmetterlingsbeispiel zeigt ja, dass man den Unterschied im Makroskopischen ohnehin nicht feststellen würde. Die QM sehen wir nur im Kleinsten wirken.
Die Quantenmechanik als Naturwissenschaft bestätigt wissenschaftlich, was Philosophen auch ohne Doppelspaltexperiment erahnen können. Und wenn sie wirklich nur im Kleinsten wirkt und im Makroskopischen nicht, dann existieren halt Mikro- und Makrowelt nebeneinander und getrennt. Daran können aber auch bekannte Physiker nicht glauben. Der Nobelpreisträger von 2003, Anthony Legett meinte halb im Spaß, halb im Ernst, in 200 Jahren werde man "Studenten am Doppelspalt interferieren lassen". Man kann nicht glauben oder man will vielleicht auch nicht glauben, dass die Makrowelt vollkommen deterministisch ist. Ich auch nicht! Und "nicht feststellen können" ist immer noch etwas anderes als "nicht sein".

Für eine vollkommen deterministische Welt oder auch abgetrennte Makrowelt wäre das Uhrwerk auch kein "Bild" sondern diese Welt wäre ein Uhrwerk. Mit der Konsequenz, dass man - zumindest theoretisch - jeden zukünftigen Zustand ausrechnen könnte. Und damit würde die Zeit als unabhängige Dimension de facto verschwinden. Denn wenn in jedem gegebenen Zustand alle zukünftigen Zustände enthalten sind, lässt sich die Zeit ebensogut auf einen Punkt zusammenziehen. Das wäre die Konsequenz einer vollkommen deterministischen Welt.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
Perdedor
Beiträge: 3462
Registriert: Do 5. Jun 2008, 23:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Perdedor »

schokoschendrezki hat geschrieben: Die Quantenmechanik als Naturwissenschaft bestätigt wissenschaftlich, was Philosophen auch ohne Doppelspaltexperiment erahnen können.
Ich weiß von keinem einzigen Philosophen, der vor der Entdeckung der QM auch nur annähernd deren Bedeutung und Implikationen erahnt hat. Das Bild des Indeterminismus war lediglich diffus vorhanden, meist in der Form von unscharfen Definitionen des freien Willens oder der Allmacht eines Gottes (beides historisch nur bedingt mit dem Determinismus vereinbar). Das Konzept der Unbestimmtheit, als fundamentale Eigenschaft der Welt wurde meines Wissens nie diskutiert.
schokoschendrezki hat geschrieben: Und wenn sie wirklich nur im Kleinsten wirkt und im Makroskopischen nicht, dann existieren halt Mikro- und Makrowelt nebeneinander und getrennt.
Nein, so ist es gerade nicht. In der Makrowelt sind die Auswirkungen der QM lediglich verwaschen, so dass man sie nicht mehr wahrnimmt (siehe "Dekohärenz"). Von Weitem betrachtet ergeben die Pixel des Monitors auch ein kontinuierliches Bild.
Die QM gilt immer und überall. Die Makrowelt lässt sich in sehr guter Näherung aber klassisch beschreiben.
schokoschendrezki hat geschrieben: Und "nicht feststellen können" ist immer noch etwas anderes als "nicht sein".
Genau. Und darum ging es. In der Makrowelt können wir keinen Indeterminismus belegen. Ob die Natur im Mikroskopischen Indeterminisisch ist, ist für diese Feststellung irrelevant. Die QM liefert einen Mechanismus der der Makrowelt immer klassisch erscheinen lässt.
schokoschendrezki hat geschrieben: Denn wenn in jedem gegebenen Zustand alle zukünftigen Zustände enthalten sind, lässt sich die Zeit ebensogut auf einen Punkt zusammenziehen.
Theoretisch ja, aber in der Praxis macht die Nichtlinearität (-> Chaos) das unmöglich. Und daher macht es eben keinen Unterschied, ob die Welt fundamental deterministisch ist, oder nicht. Kurz:
Fundamentaler Determinismus -> Chaos -> Nicht exakt berechenbar
Fundamentaler Indeterminismus -> Nicht exakt berechenbar
Für uns macht es keinen Unterschied.

Irgendwie kommen wir immer aufs selbe Thema... ;)
Um vielleicht noch die Kurve zu kriegen, stelle ich fest, dass neuromorphe Prozessoren ohne Indeterminismus die Prozesse in Nervenzellen reproduzieren können.
Arbeit. Leben. Zukunft.
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

Perdedor hat geschrieben:(15 Aug 2017, 20:49)

Um vielleicht noch die Kurve zu kriegen, stelle ich fest, dass neuromorphe Prozessoren ohne Indeterminismus die Prozesse in Nervenzellen reproduzieren können.
kannst du das erklären? denn da kann ich dich nicht folgen.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Benutzeravatar
Perdedor
Beiträge: 3462
Registriert: Do 5. Jun 2008, 23:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Perdedor »

Nomen Nescio hat geschrieben: kannst du das erklären? denn da kann ich dich nicht folgen.
Es ging in diesem Strang ja um die Fähigkeiten von selbstlernenden Algorithmen und weitergehend um die Möglichkeit einer vollständigen Simulation des menschlichen Gehirns. Nun ist es so, dass die selbstlernenden Algorithmen, die auf "herkömmlichen" Rechnerstrukturen (von Neumann) laufen mit ganz erheblichen Kapazitätsproblemen konfrontiert sind, wenn sie komplexere Prozesse implementieren sollen, als einfache Bilder-, Spracherkennung oder Ähnliches. Das geht soweit, dass gefragt wird, wie realistisch es überhaupt sein kann, komplexe Gedankenprozesse in einer solchen Struktur zu simulieren.
Eine alternative Herangehensweise ist die Verwendung von sog. neuromorphen Chips:
https://de.wikipedia.org/wiki/Neuromorpher_Chip
Diese sind einem Nervensystem in vieler Hinsicht sehr ähnlich, so dass sie komplexere neuronale Prozesse wesentlich effizienter simulieren können. U.A. beim "Human Brain Project" werden diese Ansätze verfolgt.
Im Zusammenhang mit meiner (ewigen ;) ) Diskussion mit @schokoschendrezki fügte ich noch hinzu, dass diese Neurochips deterministisch sind.
Arbeit. Leben. Zukunft.
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Perdedor hat geschrieben:(15 Aug 2017, 20:49)

Ich weiß von keinem einzigen Philosophen, der vor der Entdeckung der QM auch nur annähernd deren Bedeutung und Implikationen erahnt hat. Das Bild des Indeterminismus war lediglich diffus vorhanden, meist in der Form von unscharfen Definitionen des freien Willens oder der Allmacht eines Gottes (beides historisch nur bedingt mit dem Determinismus vereinbar). Das Konzept der Unbestimmtheit, als fundamentale Eigenschaft der Welt wurde meines Wissens nie diskutiert.
Ich glaube, das ist nur die halbe Wahrheit. Der "Laplacesche Dämon", die Vorstellung einer absolut deteministischen Welt wurde zwar letzendlich erst von Physik und speziell Quantentheorie widerlegt und war auch irgendwo eine Zusammenfassung bisheriger Physik-Geschichte. Der Begriff tauchte aber erstmalig 1814 im Vorwort eines rein philosophischen Werks (von Laplace) auf. Und man kann nicht über Determinismus philosophieren ohne das Gegenbild des Indeterminismus dabei mitzudenken. Auch wenn man dieses Gegenbild (zunächst) verwirft.
Nein, so ist es gerade nicht. In der Makrowelt sind die Auswirkungen der QM lediglich verwaschen, so dass man sie nicht mehr wahrnimmt (siehe "Dekohärenz"). Von Weitem betrachtet ergeben die Pixel des Monitors auch ein kontinuierliches Bild.
Die QM gilt immer und überall. Die Makrowelt lässt sich in sehr guter Näherung aber klassisch beschreiben.
...
Genau. Und darum ging es. In der Makrowelt können wir keinen Indeterminismus belegen. Ob die Natur im Mikroskopischen Indeterminisisch ist, ist für diese Feststellung irrelevant. Die QM liefert einen Mechanismus der der Makrowelt immer klassisch erscheinen lässt.
...
Theoretisch ja, aber in der Praxis macht die Nichtlinearität (-> Chaos) das unmöglich. Und daher macht es eben keinen Unterschied, ob die Welt fundamental deterministisch ist, oder nicht. Kurz:
Fundamentaler Determinismus -> Chaos -> Nicht exakt berechenbar
Fundamentaler Indeterminismus -> Nicht exakt berechenbar
Für uns macht es keinen Unterschied.
...
Irgendwie kommen wir immer aufs selbe Thema... ;)
Um vielleicht noch die Kurve zu kriegen, stelle ich fest, dass neuromorphe Prozessoren ohne Indeterminismus die Prozesse in Nervenzellen reproduzieren können.
Messtechnisch macht es keinen Unterschied. Und mir ist andererseits schon klar, dass der Begriff der "Messung" in der Physik fundamental und nicht einfach nur technisch ist.

Aber gerade diese Diskussion ist eine der wichtigen Belege für mich, dass Philosophie und speziell vor allem Ontologie (Seins-Philosophie, Metaphysik) nicht einfach nur Quasselei oder abstraktes Gedankenspiel sondern notwendiger und unersetzbarer Teil der menschlichen Erkenntnisfähigkeit ist.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
Perdedor
Beiträge: 3462
Registriert: Do 5. Jun 2008, 23:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Perdedor »

schokoschendrezki hat geschrieben: Und man kann nicht über Determinismus philosophieren ohne das Gegenbild des Indeterminismus dabei mitzudenken.
Schlicht als Verneinung. Ich weiß aber von keinem Philosophen, der das vor der QM durchdiskutiert hätte. Die QM geht aber noch weiter. Die Unbestimmtheit, also die Notwendigkeit einer nichtrealistischen Beschreibung der Welt, hat meines Wissen niemand vorher auch nur geahnt. Das erklärt auch die Ablehnung, selbst von Genies wie Einstein, die die QM erfahren musste: Das durch die QM als notwendig erkannte Weltbild ist vollkommen neu und man konnte auf keine Erfahrungen aus der abendländischen Philisophietradition zurückgreifen.
schokoschendrezki hat geschrieben: Aber gerade diese Diskussion ist eine der wichtigen Belege für mich, dass Philosophie und speziell vor allem Ontologie (Seins-Philosophie, Metaphysik) nicht einfach nur Quasselei oder abstraktes Gedankenspiel sondern notwendiger und unersetzbarer Teil der menschlichen Erkenntnisfähigkeit ist.
Natürlich benötigt man allein für die Definition von Naturwisenschaften eine gewisse Menge Metaphysik. Wenn Popper bspw Falisfizierbarkeit fordert, begründet er das ja nicht über die Naturwissenschaften, sondern umgekehrt. Sie ist eine Voraussetzung für die Naturwissenschaft. Durch die Erkenntnisse der QM mussten philosophischen Grundlagen entsprechend angepasst werden.
Historisch betrachtet gingen die naturwissenschaftlichen Erkenntnisse aber der metaphysischen Einordnung voraus.
Arbeit. Leben. Zukunft.
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Perdedor hat geschrieben:(16 Aug 2017, 13:34)
Schlicht als Verneinung. Ich weiß aber von keinem Philosophen, der das vor der QM durchdiskutiert hätte. Die QM geht aber noch weiter. Die Unbestimmtheit, also die Notwendigkeit einer nichtrealistischen Beschreibung der Welt, hat meines Wissen niemand vorher auch nur geahnt.
Ich wüsste auch von keinem. Die Philosophen hatten "Indeterminismus" vor allem im Zusammenhang mit der Frage des Freien Willens durchdacht. Dies hat aber mit dem physikalischen Indeterminismus der QM wenig zu tun. Es ist eine andere Frage.

Auch die (seit der Antike bestehende) Dialektik in der Philosophie ist eine Methode der Erkenntnisgewinnung, indem sie aus These und Antithese eine Synthese herzustellen versucht. Bei Hegel allerdings wird diese Dialektik der Wissensgewinnung (wenn ichs recht verstanden habe) gewissermaßen wieder zurückprojiziert auf die Realität. Dialektik ist für Hegel auch eine Seinsweise der Realität und nicht nur eine Methode des Denkens.
Damit würde die Hegelsche Dialektik auch mit dem Welle-Teilchen Dualismus keine Schwierigkeiten haben, denn der jeweilige Meßprozeß, der entweder Teilchen oder Wellen nachweist, unterscheidet sich eben in der Hinsicht auf den Meßprozeß selbst. Beide Aussagen sind wahr und wären auf einer höheren Stufe zu vereinen, wie es z.B. der Formalismus der Quantenphysik auch tut. Für Hegel ist dieses Denken jedoch nicht nur bloßes Denken, es ist zugleich eine reale Eigenschaft der Dinge.
Aus: Hegels Logik und die Ergebnisse der Quantenphysik: https://www.alexander-klier.net/wp-cont ... -Logik.pdf

Ich würde auch mal zu denken geben, dass die asiatischen Philsophien oder das, was in Asien unseren Philosophien entspricht, insbesondere indische, ganz grundsätzlich offener für Zweideutigkeiten aller Art und eine nicht-mechanische Weltsicht sind. Ich kanns nicht näher formulieren, weil ich davon nur eine sehr sehr ungefähre und nebulöse Vorstellung habe.

Aber lassen wir das mal als nicht eben uninteressante Fragestellung stehen.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
H2O
Moderator
Beiträge: 46985
Registriert: So 13. Sep 2015, 13:49
Wohnort: Zachodniopomorze

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von H2O »

In DIE ZEIT #14, 2018-03-28, Wissen, ab Seite 37 "Was macht uns künftig noch einzigartig?"

führt der Wissenschaftsredakteur Ulrich Schnabel den Leser durch die jüngsten Entwicklungen der Künstlichen Intelligenz (KI) im Fachgespräch mit führenden Fachleuten dieses Forschungsgebiets.

Die Spannweite der Zukunftserwartungen dieser Fachleute reicht von der Vorstellung,
  • daß der Mensch seine bestimmende Bedeutung an diese viel leistungsfähigeren Maschinen verlieren wird, die schließlich das Universum erobern werden... wozu der Mensch in seine Anfälligkeit ganz ungeeignet sei... so Jürgen Schmidthuber

    daß wir den erreichten Stand der KI angesichts so vieler ungelöster Probleme auf diesem Gebiet überschätzen, so daß nicht zu erwarten sei, daß in absehbarer Zeit Roboter zu uns aufschlössen. Insbesondere das im Menschen vorhandene Mitgefühl, sein Kunstsinn mit dessen ungeheurer Vielseitigkeit,... so Luc Steels

    daß das, »Was den Menschen von der Maschine unterscheidet,ist, dass wir letztendlich liebende und geliebte Wesen sind. Wir wurden geboren und sind durch die Liebe unserer Eltern groß geworden. Ohne diese Liebe wären wir gestorben. Deshalb betonen ja auch viele Religionen die Fähigkeit zum Mitgefühl, zu Empathie und Nächstenliebe.«... so Wolfgang Hildesheim
In diesem Spannungsfeld äußern sich weitere einflußreiche KI-Forscher mit der tröstlichsten Aussicht darauf
  • daß Maschinen uns als objektive Berater dabei helfen könnten, unsere ethischen ­Probleme zu lösen... so Thomas Metzinger
Wenn dieser kleine Beitrag Ihre Neugierde geweckt haben sollte, dann haben Sie eine aufregende Lesestunde vor sich!
Benutzeravatar
Ein Terraner
Beiträge: 14308
Registriert: Sa 7. Mai 2016, 19:48
Wohnort: München

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Ein Terraner »

Alter Stubentiger hat geschrieben:(08 Aug 2017, 14:58)

So eine Maschine wird also morgens ihren Weg zum Bäcker finden?
Ich sag nur Navi.
Benutzeravatar
Provokateur
Beiträge: 12535
Registriert: Sa 3. Jan 2015, 16:44
user title: Alpha by choice&Liberalpatriot
Wohnort: जर्मनी

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Provokateur »

Ein Terraner hat geschrieben:(28 Mar 2018, 23:55)

Ich sag nur Navi.
Es gibt ja schon Versuche, Paketboten durch selbst navigierende Roboter abzulösen. Diese laufen vielversprechend.
Harry riss sich die Augen aus dem Kopf und warf sie tief in den Wald. Voldemort schaute überrascht zu Harry, der nun nichts mehr sehen konnte.
twitter.com/Provokateur_Tom
Just Me
Beiträge: 114
Registriert: Fr 6. Okt 2017, 09:32

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Just Me »

H2O hat geschrieben:(28 Mar 2018, 23:40)

In DIE ZEIT #14, 2018-03-28, Wissen, ab Seite 37 "Was macht uns künftig noch einzigartig?"

führt der Wissenschaftsredakteur Ulrich Schnabel den Leser durch die jüngsten Entwicklungen der Künstlichen Intelligenz (KI) im Fachgespräch mit führenden Fachleuten dieses Forschungsgebiets.

Die Spannweite der Zukunftserwartungen dieser Fachleute reicht von der Vorstellung, ... daß wir den erreichten Stand der KI angesichts so vieler ungelöster Probleme auf diesem Gebiet überschätzen, so daß nicht zu erwarten sei, daß in absehbarer Zeit Roboter zu uns aufschlössen. Insbesondere das im Menschen vorhandene Mitgefühl, sein Kunstsinn mit dessen ungeheurer Vielseitigkeit,... so Luc Steels
Es ist eine Ironie der Geschichte, dass "Machtübernahme" (lies: "Aufschließen zum Menschen") keineswegs durch "Einholen"** realisiert wird. Und es ist ein Treppenwitz der Geschichte, dass "Machtübernahme" stets mit "massiven Empathie-Lücken" einher ging: Die Menschen machen in ihrer gesamten Geschichte stets die größten Empathie-Schweine zu ihren Anführern. Vergleichsweise ist das gut am Ende der Weimarer Republik nachzuvollziehen: Hitler wäre ein kleiner Dorf-Prediger geblieben, hätten ihn nicht Menschen, die glaubten, in seinem Windschatten segeln zu können, hofiert. Und er wäre nie Diktator geworden und hätte nie die Demokratie abschaffen können, hätten nicht pathologische Konservative und Reaktionäre ihn gestützt und ihm die Macht in die Hand gedrückt. Er musste nichts "an sich reißen"; man gab es ihm aus freien Stücken. Sukzessive. Sich der Realität verweigernd und stattdessen auf "Hoffnung & Glaube, dass es sich schon irgendwann irgendwie einrenken würde" setzend.

**) ad "Einholen": Im "real existierenden Sozialismus der DDR" gab es einen Aphorismus der SED, der da lautete: "Überholen ohne Einzuholen". Das darfst du auch hier gern für bare Münze nehmen: Die KI muss dich nicht "einholen". Sie muss keine Kunst beherrschen. Es reicht, wenn sie DICH beherrscht. Und sei es nur, dass dein Name auf einem Ausdruck eines Rasterfahndungs-Algorithmus steht. Dann bekommst du sehr schnell und sehr handfest eine Vorstellung davon, wie unwichtig Kunst bei der Machtausübung wird; ... aber auch, wie wenig Empathie der Mensch eigentlich tatsächlich besitzt. ;)

Abgesehen davon: Britische Elite-Mathematiker des 19. Jahrhunderts bewiesen an der Tafel zweifelsfrei, dass Züge und Autos niemals schneller als etwa 55 km/h fahren könnten (weswegen übrigens auch der Mensch niemals fliegen können würde). Würde der Zug schneller fahren, so diese Experten, würden alle Insassen darin ersticken. ... Heute knattern wir mit bis zu 400 km/h durch die Landschaft und fliegen - bald wohl wieder - mit Überschall-Geschwindigkeit über die Ozeane. Und ersticken kann man nur, wenn bei der Bahn mal wieder die Klimaanlagen ausfallen. Und was sagte Bill Gates noch im Jahr 1986; also vor kaum mehr als 30 Jahren? Genau! "Mehr als 640 kB RAM wird niemals benötigt."; während IBM, der große "Computer-Konzern", ein paar Jahre früher schon sagte: "Der weltweite Bedarf an Großrechnern erschöpft sich in der Zahl Fünf. Wir sehen daher keinen ausreichenden Bedarf, in dieser Richtung weiterzuforschen." Und SIEMENS, der große "Elektro-Konzern", ließ das Fax-Gerät über 10 Jahre in der Schublade verrotten, bis das Patent verfallen war und ein japanischer Kleinunternehmer es endlich bauen konnte. Der Grund? "Es gibt keinen Bedarf, Briefe auf elektrischen Wegen zu verschicken."

Will sagen: In der Geschichte haben sich - vor allem(!) - die großen Geister ihres Fachs stets geirrt und wurden - und das in immer schnellerer Abfolge - von der Realität Lügen gestraft. Das ist nicht tragisch; schließlich ist "Irren" die Haupteigenschaft aller Menschen. Das bedeutet aber auch, dass alles - ABSOLUT ALLES -, was heute gesagt wird, schon morgen früh nicht mehr wahr ist. :D
Benutzeravatar
imp
Beiträge: 16690
Registriert: Fr 14. Jul 2017, 20:37
user title: Freiheit ist unser Ideal.

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von imp »

Just Me hat geschrieben:(29 Mar 2018, 09:10)

Und was sagte Bill Gates noch im Jahr 1986; also vor kaum mehr als 30 Jahren? Genau! "Mehr als 640 kB RAM wird niemals benötigt."
Da hatte er auch Recht. Für die Plattform, auf die er sich bezog, war es niemals nötig.
Wobei das Zitat hieß "ought to be enough" und es ist auch umstritten, ob das wirklich so gesagt wurde oder falsch zugeschrieben ist.
"Don't say words you gonna regret" - Eric Woolfson
Benutzeravatar
H2O
Moderator
Beiträge: 46985
Registriert: So 13. Sep 2015, 13:49
Wohnort: Zachodniopomorze

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von H2O »

Just Me hat geschrieben:(29 Mar 2018, 09:10)
...
Will sagen: In der Geschichte haben sich - vor allem(!) - die großen Geister ihres Fachs stets geirrt und wurden - und das in immer schnellerer Abfolge - von der Realität Lügen gestraft. Das ist nicht tragisch; schließlich ist "Irren" die Haupteigenschaft aller Menschen. Das bedeutet aber auch, dass alles - ABSOLUT ALLES -, was heute gesagt wird, schon morgen früh nicht mehr wahr ist. :D
Wenn Sie den DIE ZEIT Beitrag gelesen hätten, dann wären Ihnen Ihre hier geäußerten Bedenken in mehrfacher Ausfertigung dort begegnet. Es ist nicht sauber, einen von vier meiner schon ausgewählten Beiträge heraus zu picken und dann eine Breitseite auf die betriebsblinde Fachwelt ab zu feuern. Der Umgang des Menschen mit seinen höchst verwirrenden Irrtümern wurde übrigens als besonderer Vorteil genannt, den eine Maschine nach allen bisher gemachten Erfahrungen niemals erreichen wird.
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Ein Terraner hat geschrieben:(28 Mar 2018, 23:55)

Ich sag nur Navi.
Aber wie kommt der Körper hin? Tür aufschließen, die 3 Treppenstufen runter, über die Straße laufen, 1 Häuserblock weiterlaufen, auf Fußgänger, Radfahrer und rangierende Autos achten, die Bordsteinkante, Kommunikation mit der Verkäuferin, bezahlen, Tüte mit Brötchen greifen und wieder zurück. Ein 8jähriger Junge schafft dass locker. Aber für Roboter? Eine unlösbare Aufgabe.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Provokateur hat geschrieben:(29 Mar 2018, 08:17)

Es gibt ja schon Versuche, Paketboten durch selbst navigierende Roboter abzulösen. Diese laufen vielversprechend.
Wo? Nicht immer solche Behauptungen in den Raum stellen. Was ist also "vielversprechend"?
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Ein Terraner
Beiträge: 14308
Registriert: Sa 7. Mai 2016, 19:48
Wohnort: München

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Ein Terraner »

Alter Stubentiger hat geschrieben:(29 Mar 2018, 16:04)

Aber wie kommt der Körper hin? Tür aufschließen, die 3 Treppenstufen runter, über die Straße laufen, 1 Häuserblock weiterlaufen, auf Fußgänger, Radfahrer und rangierende Autos achten, die Bordsteinkante, Kommunikation mit der Verkäuferin, bezahlen, Tüte mit Brötchen greifen und wieder zurück. Ein 8jähriger Junge schafft dass locker. Aber für Roboter? Eine unlösbare Aufgabe.
Das ist doch alles nur eine Frage von Mechanik und Zeit.
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Ein Terraner hat geschrieben:(29 Mar 2018, 17:16)

Das ist doch alles nur eine Frage von Mechanik und Zeit.
Ist dass so? Ich schätze meinen Computer. Habe ich selber zusammengebaut. Ich habe früher auch auf Maschinenebene programmiert. Vielleicht fehlt mir deshalb dieser Glaube an die Allmacht der Algorithmen und der Robotertechnik. Vielleicht sehe ich deshalb die Grenzen.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Ein Terraner
Beiträge: 14308
Registriert: Sa 7. Mai 2016, 19:48
Wohnort: München

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Ein Terraner »

Alter Stubentiger hat geschrieben:(29 Mar 2018, 18:11)

Ist dass so? Ich schätze meinen Computer. Habe ich selber zusammengebaut. Ich habe früher auch auf Maschinenebene programmiert. Vielleicht fehlt mir deshalb dieser Glaube an die Allmacht der Algorithmen und der Robotertechnik. Vielleicht sehe ich deshalb die Grenzen.
[youtube][/youtube]

[youtube][/youtube]

Grenzen?
Benutzeravatar
Ein Terraner
Beiträge: 14308
Registriert: Sa 7. Mai 2016, 19:48
Wohnort: München

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Ein Terraner »

[youtube][/youtube]

[youtube][/youtube]

[youtube][/youtube]

[youtube][/youtube]


Brötchen holen sollte drin sein. ;)
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Auf YouTube sieht immer alles ganz toll aus. Wenn es überhaupt echt ist.
Auch aus diesem Grund lehne ich Youtube als Beweis für irgend etwas ab.
Irgendwie sehe ich da auch keine Hände???
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Just Me
Beiträge: 114
Registriert: Fr 6. Okt 2017, 09:32

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Just Me »

H2O hat geschrieben:(29 Mar 2018, 11:33)

Wenn Sie den DIE ZEIT Beitrag gelesen hätten, dann ...
... hättest du ihn verlinken sollen. Da er aber (anscheinend) nicht (mehr) online zu finden ist, ist dein (selektives) Zitat die einzige Grundlage. Möchtest du Diskussionen über DEINE MEINUNG (hier in Form der Auswahl und Zusammenstellung des Zitats geäußert) verbieten, H2O?
H2O hat geschrieben:(29 Mar 2018, 11:33)
Der Umgang des Menschen mit seinen höchst verwirrenden Irrtümern wurde übrigens als besonderer Vorteil genannt, den eine Maschine nach allen bisher gemachten Erfahrungen niemals erreichen wird.
Und das ist der nächste große Irrtum. Tatsächlich geht der Mensch mit seinen Irrtümern nicht um. Vielmehr macht er, was schon Darwin treffend zusammenfasste: "Meinungen werden nicht geändert. Meinungen sterben aus."
Das war die Quintessenz seiner bis an sein Lebensende geführten Kampagne zu seiner "Evolutions-Theorie"; um die der Streit übrigens bis heute anhält.

Maschinen haben hier den klaren Vorteil der Emotionslosigkeit (auch in Bezug auf dich, H2O ;)). Wenn sie Fehler machen, dann machen sie den Fehler entweder immer wieder (Okay, damit sind sie sowas wie die SPD.); oder sie korrigieren ihn, wenn sie ihn erkennen können oder Alternativen haben. Doch sie beharren nicht lebenslang auf ihrer Meinung, weil sie sich im Besitz des Steins der Weisen wähnen. Ihre Lern- und Anpassungsfähigkeit wird also nicht von Meinungen oder Emotionen beschränkt. Und damit ist ihr Umgang mit (ihren) Irrtümern und Fehlern deutlich pragmatischer und produktiver. Ein "... weil nicht sein kann, was nicht sein darf.", wie es der @Stubentiger (s. nachfolgende Zitate) symptomatisch für den relevanten Diskurs pflegt, kennen sie gar nicht.

=======================================================
Alter Stubentiger hat geschrieben: Aber wie kommt der Körper hin? Tür aufschließen, die 3 Treppenstufen runter, über die Straße laufen, 1 Häuserblock weiterlaufen, auf Fußgänger, Radfahrer und rangierende Autos achten, die Bordsteinkante, Kommunikation mit der Verkäuferin, bezahlen, Tüte mit Brötchen greifen und wieder zurück. Ein 8jähriger Junge schafft dass locker. Aber für Roboter? Eine unlösbare Aufgabe.
Treppen laufen ist sein rund 30 Jahren eine "alte Disziplin"; selbst "zweibeiniges Laufen" lässt sich mittlerweile schon ziemlich weitgehend beherrschen. Entsprechendes gilt für alle(!) einzelnen Punkte, die du hier nennst. Heute arbeitet man längst daran, all die Dinge zusammenzufügen.
Alter Stubentiger hat geschrieben:Auf YouTube sieht immer alles ganz toll aus. Wenn es überhaupt echt ist.
Auch aus diesem Grund lehne ich Youtube als Beweis für irgend etwas ab.
Irgendwie sehe ich da auch keine Hände???
Abgesehen davon, dass "Hände" für die wenigsten Aufgaben das zweckmäßigste Instrument sind und "Vielseitigkeit" bei Robotern/Maschinen weit unterhalb von "Spezialisierung" angesiedelt werden kann: Du willst "Hände" sehen? Guckst du hier:



Wenn man nun bedenkt, dass diese gesamte Entwicklung - vom, aus der Perspektive selbständiger Entscheidungen, einfachen Industrie-Roboter bis zu komplexen Experten-Systemen - keine 100 Jahre alt ist; ja, dass noch nicht einmal das simple Fernsehen selbst 100 Jahre alt ist (das allererste Fernsehprogramm ist gerade einmal runde 80 Jahre alt); dann ist leicht vorstellbar, was in weiteren 100 oder gar 1.000 Jahren möglich sein kann. Nicht nur in Bezug auf "Cyborgs", sondern auch in Bezug auf die "Intelligenz der Maschinen".
Benutzeravatar
H2O
Moderator
Beiträge: 46985
Registriert: So 13. Sep 2015, 13:49
Wohnort: Zachodniopomorze

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von H2O »

Just Me hat geschrieben:(30 Mar 2018, 09:40)

... hättest du ihn verlinken sollen. Da er aber (anscheinend) nicht (mehr) online zu finden ist, ist dein (selektives) Zitat die einzige Grundlage. Möchtest du Diskussionen über DEINE MEINUNG (hier in Form der Auswahl und Zusammenstellung des Zitats geäußert) verbieten, H2O?
...
...
Keineswegs; ganz im Gegenteil. Aber sich auf das beschränken, was gerade online zu greifen ist, das verengt den Blick doch sehr... wie man sieht. Denn genauer, als ich den Ort der Betrachtungen beschrieben hatte, geht es ja wohl nicht mehr:
"In DIE ZEIT #14, 2018-03-28, Wissen, ab Seite 37 "Was macht uns künftig noch einzigartig?" "
Wähler
Beiträge: 8544
Registriert: Di 25. Dez 2012, 13:04
user title: Bürgerjournalismus
Wohnort: Bayern

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Wähler »

Habe beruflich mit Text Mining, Big Data und künstlicher Intelligenz zu tun. Big Data und künstliche Intelligenz gehören oft zusammen, zumindestens im Bereich Text Mining. Big Data bedarf aber eines gut überwachenden Datenschutzes, wie die Affäre um Cambridge Analytica und 50 Millionen Facebook-Konten zeigt.
Zuletzt geändert von Wähler am Fr 30. Mär 2018, 11:03, insgesamt 2-mal geändert.
Zeitungstexte bei Genios mit Bibliotheksausweis kostenlos: https://www.wiso-net.de/login?targetUrl=%2Fdosearch (Zugang auch bundesweit)
immernoch_ratlos
Beiträge: 2344
Registriert: So 10. Apr 2016, 17:59

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von immernoch_ratlos »

H2O hat geschrieben:als ich den Ort der Betrachtungen beschrieben hatte, geht es ja wohl nicht mehr:
Ja das stimmt - kleiner Stolperstein - der 8seitige Artikel "Künstliche Intelligenz: Was macht uns künftig noch einzigartig?" ist nur über "premium.zeit.de" - also über ein Abo lesbar. Nun da ich eine solche Abo habe, werde ich irgendwann nach dem Frühstück mal diese 8 Seiten lesen.

Was "Just Me" da schreibt ist ebenfalls mein Eindruck, einigen Usern geht es ausschließlich um "Selbstbehauptung" und nicht um echte Diskussion. Es ist offensichtlich, einige haben es noch nie besessen oder inzwischen wieder verloren, das Stauen was es so alles gibt und in welch kurzer Zeit sich weit größere Veränderungen abspielen als das jemals zuvor in der Geschichte der Menschheit der Fall war.

Mir - offensichtlich und glücklicherweise nicht nur mir - kommt das reichlich rückständig vor. Wenn der überwiegende Teil derer, welchen freien Zugang zu den relevanten Informationen haben - eigentlich jeder hier - wenn er / sie es denn möchte, so ist, wie die Tendenz in diesem Forum, dann kann es einem angst werden. In sehr vielen Bereichen unterscheiden sich die Teilnehmer kaum von den sporadischen "Lesermeinungen" die man inzwischen überall vorfindet. Statt sich selbst einmal um mehr Information zu bemühen, wird vorschnell über allem der Stab gebrochen. Eigentlich mehr als schade.

Wenn das in dieser Weise weitergeht, werde ich mich wegen Zeitverschwendung zurückziehen. Hier kann man so garnix dazulernen. Hier sind leider - völlig unabhängig vom kalendarischen Alter - sehr viele längst am Ende ihrer persönlichen "Lernkurve" angekommen. Der Rest der Zeit besteht in massiver Ablehnung von allem, was nicht aus ihren eigenen Gehirnwindungen stammt - schade eigentlich - Leben, heißt jedenfalls für mich lebenslang neues dazulernen und das ist nur im Dialog möglich. So gesehen, haben "uns" Maschinen längst überholt, indem sie ihre ganz eigene Lernmethoden entwickeln. Kombiniert mit der Geschwindigkeit "eigene Überlegungen" ohne jegliche Emotion anzustellen - buchstäblich in jede denkbar und (vom menschlichen Standpunkt) "undenkbare" Richtung, ist die Möglichkeit das dabei ein maschinelles Bewusstsein entsteht, durchaus real. Schon jetzt wird bei "Eureqa" über "Evolutionäre Algorithmen (EA)" erstaunliche Erfolge erzielt. Es wird für Menschen (ausgewiesenen Spezialisten) zunehmend schwieriger noch zu verstehen, wie die "Maschine" zu ihren Ergebnissen gekommen ist.
Eureqa hat geschrieben:In Bezug zu Eureqa hat der Mathematiker Steven Strogatz die Vermutung geäußert, dass derzeit noch theoretisch unerklärbare mathematische Resultate Vorboten eines „end of insight“ sein könnten, wenn Computerprogramme in der Lage sind, wissenschaftliche Zusammenhänge herzustellen, die Menschen zwar als korrekt erkennen, ihnen aber intellektuell nicht mehr folgen können.

DaSilva argumentiert in eine ähnliche Richtung. Er hebt als Besonderheit „Eureqa’s ability to ‘discover’ (i.e. rediscover) the laws of nature“ heraus und vermutet, dass in Zukunft menschliche Wissenschaftler zusammen mit Netzwerken von evolutionär-algorithmischen Programmen Experimente und Auswertungen durchführen und Resultate finden werden, die [in der Technik] weiterverwendet werden, ohne dass die naturwissenschaftlichen Prinzipien dahinter verstanden werden (können), auf denen diese Resultate beruhen
Dieses - geht nicht - gibt´s nicht - das einige hier ständig verbreiten, selbstverständlich ohne irgendwelche eigene Vorstellungen oder hinweisende Informationen (die sie ständig von anderen einfordern), wäre lächerlich, würde sie nicht aufzeigen, wie beengt doch das menschliche Denken noch immer ist.
"Wenn der Wind der Veränderung weht, bauen die einen Mauern und die anderen Windmühlen." (aus China)
Benutzeravatar
H2O
Moderator
Beiträge: 46985
Registriert: So 13. Sep 2015, 13:49
Wohnort: Zachodniopomorze

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von H2O »

immernoch_ratlos hat geschrieben:(30 Mar 2018, 10:56)

Ja das stimmt - kleiner Stolperstein - der 8seitige Artikel "Künstliche Intelligenz: Was macht uns künftig noch einzigartig?" ist nur über "premium.zeit.de" - also über ein Abo lesbar. Nun da ich eine solche Abo habe, werde ich irgendwann nach dem Frühstück mal diese 8 Seiten lesen.

...

...
Als der Weisheit letzter Schluß wäre es unzulässig, sich über Dinge zu äußern, die man zur eigenen Freude und Überraschung in gelehrten Büchern der unterhaltenden Art findet. Am Ende lesen wir uns dann wkipedia gegenseitig vor... wobei ich gern in wikipedia nachsehe, wie weit ich schon auf dem Holzweg voran gekommen bin. Wikipedia ist schon eine sehr verdienstvolle Errungenschaft unseres digitalen Zeitalters. Gäbe es sie nicht, man müßte sie glatt erfinden!

Ich kann Sie nur bitten, sich nicht enttäuscht zurück zu ziehen; sehen Sie es so wie Gott in Sodom und Gomorrha: "Wenn wenigstens zehn Gerechte in der Stadt leben, dann werde ich die Stadt verschonen!" Also, in diesem Forum sind doch noch ein paar Gerechte mehr an zu treffen... :)
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Just Me hat geschrieben:(30 Mar 2018, 09:40)

Maschinen haben hier den klaren Vorteil der Emotionslosigkeit (auch in Bezug auf dich, H2O ;)). Wenn sie Fehler machen, dann machen sie den Fehler entweder immer wieder (Okay, damit sind sie sowas wie die SPD.); oder sie korrigieren ihn, wenn sie ihn erkennen können oder Alternativen haben. Doch sie beharren nicht lebenslang auf ihrer Meinung, weil sie sich im Besitz des Steins der Weisen wähnen. Ihre Lern- und Anpassungsfähigkeit wird also nicht von Meinungen oder Emotionen beschränkt. Und damit ist ihr Umgang mit (ihren) Irrtümern und Fehlern deutlich pragmatischer und produktiver. Ein "... weil nicht sein kann, was nicht sein darf.", wie es der @Stubentiger (s. nachfolgende Zitate) symptomatisch für den relevanten Diskurs pflegt, kennen sie gar nicht.
=======================================================

Treppen laufen ist sein rund 30 Jahren eine "alte Disziplin"; selbst "zweibeiniges Laufen" lässt sich mittlerweile schon ziemlich weitgehend beherrschen. Entsprechendes gilt für alle(!) einzelnen Punkte, die du hier nennst. Heute arbeitet man längst daran, all die Dinge zusammenzufügen.

Abgesehen davon, dass "Hände" für die wenigsten Aufgaben das zweckmäßigste Instrument sind und "Vielseitigkeit" bei Robotern/Maschinen weit unterhalb von "Spezialisierung" angesiedelt werden kann: Du willst "Hände" sehen? Guckst du hier:



Wenn man nun bedenkt, dass diese gesamte Entwicklung - vom, aus der Perspektive selbständiger Entscheidungen, einfachen Industrie-Roboter bis zu komplexen Experten-Systemen - keine 100 Jahre alt ist; ja, dass noch nicht einmal das simple Fernsehen selbst 100 Jahre alt ist (das allererste Fernsehprogramm ist gerade einmal runde 80 Jahre alt); dann ist leicht vorstellbar, was in weiteren 100 oder gar 1.000 Jahren möglich sein kann. Nicht nur in Bezug auf "Cyborgs", sondern auch in Bezug auf die "Intelligenz der Maschinen".
Ich habe ja auch nicht behauptet daß es niemals gehen würde. Ich möchte nur die Erwartungen all derer etwas dämpfen die meinen schon morgen würden Roboter die Paketboten überflüssig machen.
Es wird schon noch einige Jahrzehnte dauern. Vielleicht geht es nie. Da gibts schon so einige schwer zu überwindendes Hindernisse auf dem Weg zur echten KI außerhalb riesiger Rechenzentren.

Außerdem erwähnte ich Beispiele weil es um ein ganz spezielles Thema ging: Um den Einsatz eines Roboters bei ganz profanen Dingen z.B. dem Gang zum Bäcker. Da braucht man eben Hände. Und eine mobile KI. Aber wo soll die herkommen? Prozessoren die dies leisten könnten müssen bei der heutigen Technik in riesigen Serverschränken mit gewaltiger Kühlung untergebracht werden. Und bei der Miniaturisierung ist man so gut wie am Endpunkt angekommen. Gut. Es wird wohl für Drohnen mit beschränktem Aufgabenbereich reichen. Aber dass wars dann aber auch.

Und du lobst die Emotionslosigkeit und das Fehlen von Meinungen bei einer KI. Und pragmatischer und produktiver soll sie auch noch sein. Nein, das ist sie nicht. Diese Eigenschaften werden von Technikaffinen für die Zukunft prognostiziert. Und da werden Erwartungen geweckt die meiner Meinung nach völlig überzogen sind.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Ein Terraner
Beiträge: 14308
Registriert: Sa 7. Mai 2016, 19:48
Wohnort: München

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Ein Terraner »

Alter Stubentiger hat geschrieben:(30 Mar 2018, 15:57)

Ich habe ja auch nicht behauptet daß es niemals gehen würde. Ich möchte nur die Erwartungen all derer etwas dämpfen die meinen schon morgen würden Roboter die Paketboten überflüssig machen.
Von Morgen spricht auch keiner, es geht um die nächsten 25-50 Jahre. Wenn man betrachtet was sich seit der Jahrtausendwende in Robotik und im Computer Bereich getan hat wird das restliche Jahrhundert bestimmt noch einiges bieten können.
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Ein Terraner hat geschrieben:(30 Mar 2018, 16:27)

Von Morgen spricht auch keiner, es geht um die nächsten 25-50 Jahre. Wenn man betrachtet was sich seit der Jahrtausendwende in Robotik und im Computer Bereich getan hat wird das restliche Jahrhundert bestimmt noch einiges bieten können.
Gerade bei den Prozessoren geht es seit geraumer Zeit kaum noch vorran. Man kann die Strukturen nur noch sehr mühsam verkleinern. Wachsender Aufwand - verringerter Ertrag. Zu allem Überfluß gibt es bei sehr kleinen Strukturen quantenmechanische Probleme. Elektronen können "tunneln" und andere exotische Effekte treten auf.

Also ohne einen grundsätzlich anderen Ansatz in der Computertechnik wird es nie wirklich intelligente Roboter geben. Es werden Fachidioten bleiben. Diese Entwicklung sieht man ja schon heute. Und eigentlich ist dass auch gut so.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Ein Terraner
Beiträge: 14308
Registriert: Sa 7. Mai 2016, 19:48
Wohnort: München

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Ein Terraner »

Alter Stubentiger hat geschrieben:(30 Mar 2018, 16:48)

Gerade bei den Prozessoren geht es seit geraumer Zeit kaum noch vorran. Man kann die Strukturen nur noch sehr mühsam verkleinern. Wachsender Aufwand - verringerter Ertrag. Zu allem Überfluß gibt es bei sehr kleinen Strukturen quantenmechanische Probleme. Elektronen können "tunneln" und andere exotische Effekte treten auf.

Also ohne einen grundsätzlich anderen Ansatz in der Computertechnik wird es nie wirklich intelligente Roboter geben. Es werden Fachidioten bleiben. Diese Entwicklung sieht man ja schon heute. Und eigentlich ist dass auch gut so.
Du vergisst die Vernetzung, wenn dann werden solche Roboter eh nur ein verlängertes Organ einer zentralen K.I. sein.

Aber auch wenn es Probleme gibt, wir dürfen gespannt sein was da auf uns zukommen wird.
watisdatdenn?
Beiträge: 4370
Registriert: Do 19. Jun 2008, 15:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von watisdatdenn? »

Alter Stubentiger hat geschrieben:(29 Mar 2018, 18:11)
Ist dass so? Ich schätze meinen Computer. Habe ich selber zusammengebaut. Ich habe früher auch auf Maschinenebene programmiert. Vielleicht fehlt mir deshalb dieser Glaube an die Allmacht der Algorithmen und der Robotertechnik. Vielleicht sehe ich deshalb die Grenzen.
Mach dich mal mit der darpa challenge vertraut. Es ist irre was jetzt schon funktioniert und wir sind gerade erst am Anfang die Dinge effizient zu nutzen.
Schau dir mal z.b. https://deeplearnjs.org/ an. Beeindruckend ist insbesondere das Beispiel:
https://teachablemachine.withgoogle.com/

Das ist kein programmieren mehr, sondern echtes teachen.. Im Browser mit Hardware die nicht dafür ausgelegt ist.
Das ist aber erst der Anfang
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Ein Terraner hat geschrieben:(30 Mar 2018, 17:03)

Du vergisst die Vernetzung, wenn dann werden solche Roboter eh nur ein verlängertes Organ einer zentralen K.I. sein.

Aber auch wenn es Probleme gibt, wir dürfen gespannt sein was da auf uns zukommen wird.
Tja. Es bleibt spannend. Eine Vernetzung von alles mit allem halte ich für technischen Irrsinn. Wie soll so etwas überhaupt wirtschaftlich sein? Denn neben dem technisch Machbarem steht noch die Wirtschaftlichkeit im Raum. Man sollte mal daran denken dass es Gegenden in Deutschland gibt die noch nicht mal schnelles Internet nach heutigem Standard haben. Und außerdem machen wir uns mit der Zunahme der Vernetzung zunehmend verwundbarer. Vor allem wenn man bedenkt daß Hacker weltweit einen Riesenspaß damit haben alles Mögliche zu hacken.

Ich finde einfach dass man einen Paradigmenwechsel braucht. Weg von der Übertechnisierung zu einer einfachen, robusten und zuverlässigen Technik bei der dann aber besseres Material für eine längere Lebensdauer verwendet wird. Was nutzt mir eine smarte Waschmaschine die nach 3 Jahren auseinanderfällt weil statt richtigen Metallteilen einfach immer mehr Plastik verwendet wird. Und das denke ich mir nicht so aus. Das ist der Trend in der Technik. Ich halte diesen Weg für grundfalsch und nicht nachhaltig.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

watisdatdenn? hat geschrieben:(30 Mar 2018, 17:21)

Mach dich mal mit der darpa challenge vertraut. Es ist irre was jetzt schon funktioniert und wir sind gerade erst am Anfang die Dinge effizient zu nutzen.
Schau dir mal z.b. https://deeplearnjs.org/ an. Beeindruckend ist insbesondere das Beispiel:
https://teachablemachine.withgoogle.com/

Das ist kein programmieren mehr, sondern echtes teachen.. Im Browser mit Hardware die nicht dafür ausgelegt ist.
Das ist aber erst der Anfang
Das ist Schnickschnack.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
watisdatdenn?
Beiträge: 4370
Registriert: Do 19. Jun 2008, 15:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von watisdatdenn? »

Alter Stubentiger hat geschrieben:(30 Mar 2018, 18:06)
Das ist Schnickschnack.
Hat du dir das Framework überhaupt genauer angeschaut?
GPGPU Nutzung über Webgl und ordentliche Performance mit einem JavaScript Framework plattformunabhängig.

Das ist Schnickschnack für dich?

Na dann zeig mal was du so drauf hast. Ich warte auf dein beeindruckendes github repository..
immernoch_ratlos
Beiträge: 2344
Registriert: So 10. Apr 2016, 17:59

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von immernoch_ratlos »

H2O ich hatte schon immer regen Gebrauch von Büchern gemacht - in Enzyklopädien - ich erfreue mich gleich mehrere Druckausgaben inklusive einer von 1894 "Spammers Illustrierte Weltgeschichte" in zehn Bänden. Band X "Geschichte der neuesten Zeit" (1852 - 1878) endet mit dem "Berliner Kongreß" ich bin überzeugt ohne weitere Recherchen weiß niemand hier etwas darüber.

Das Problem mit echten Büchern ist das Recherchieren. Seit allerdings dieses Weltkulturerbe nach und nach digitalisiert wird, erleichtert das jede Art von Recherche. Ein Klick und ich finde im deutschsprachigen WIKIPEDIA dazu einen Artikel inkl. einer farbigen Darstellung des Gemäldes - ganz wie in meinem Buch, nur dort ist es ein ausklappbarer Schwarzweißdruck mit Namen der dargestellten Personen. Warum erwähne ich das ? Weil man auch WIKIPEDIA überprüfen kann und ganz wie in dessen papiernen Vorgängern, gibt es "politische" und andere "Darstellungen", die man durchaus hinterfragen muss. Nur schmälert dies den Wert der Information derart, dass man sie alle unter mehr, als einen vagen Verdacht stellen muss ? Ich glaube nein.

Diese erste Digitalisierung war nur durch menschliche Hilfe möglich. Inzwischen gibt es Buchscanner der gebundene Dokumente vollautomatisch scannt ein "Scan-Roboter" wie den da Ein Maschine - auf eine spezielle Aufgabe hin konstruiert - wie die meisten der inzwischen aktiven Roboter.

Ganz wie in der Natur alle Lebewesen haben ihren ganz eigenen Platz und sind meist hochspezialisiert. Die berühmte "Eierlegende Wollmilchsau" sucht man da vergeblich. Mensch der schon vieles bei der Natur abgekupfert hat, warum soll der nun etwas konstruieren, was ALLE menschlichen und nichtmenschlichen Fähigkeiten in nur einer Maschine abbildet ?

Hände die wie die menschliche Hand unserer Vormachtstellung unter den anderen Tieren erst ermöglicht hat, ist (wenn man nicht dem sog. "Intelligenten Design" anhängt) hat sich über zahllose Entwicklungsstufen ausgebildet. Nun kann man lange bevor das in der Robotik gelingen mag sich mit "auswechselbaren Spezialhänden" behelfen. Mit dem Vorteil, den die menschliche Hand eben nicht hat, diese an die jeweilige Tätigkeit anzupassen. Maschinen die wechselnde Tätigkeiten verrichten - bekommen - wenn das den notwendigen Vorteil bringt - einfach mehrere "Hände" oder die Maschine wechselt selbst diese "Gliedmaßen" je nach Aufgabe.

Ich halte es für völligen Unsinn, den Roboter "gottgleich" nach unserem Bilde zu schaffen. Es genügt völlig, wenn die betreffende Maschine kann, was ihre Aufgabe ist. Und das ist verdammt mehr von dem was inzwischen diese Maschinen statt uns Menschen tun können. Warum sollte man eine Maschine mit den menschlichen Unzulänglichkeiten belasten, nur damit sie uns möglichst gleicht ? Wer eine Schraube eindrehen oder lösen möchte, wird ja auch nicht zum Superwerkzeug mit dem man "alles" machen kann, greifen und einfach das EINE dafür konstruierte Werkzeug nutzen.

Genauso verhält es sich auch mit der "Software" - dafür werden immer leistungsfähigere Algorithmen entwickelt - noch nichts anderes, als eine sinnvolle Aneinanderreihung von Einzelschritten die "wir" uns ausgedacht haben - nicht mehr ganz allein s. "Eureqa"

Ganz sicher werden die sich nicht aus dem Geschäft zurückziehen und alles noch weiter vorantreiben : "Slaughterbots" Wer etwas mehr Zeit und Interesse hat : "The Dawn of Killer Robots (Full Length)" da wird auch versucht "menschenähnliche Fußgängern" das Laufen beizubringen...

Hände ? "The Mind-Controlled Bionic Arm With a Sense of Touch" sicher nicht perfekt - aber angesichts wie lange - wohl eher wie kurz die Zeit, seit es überhaupt derartigen Möglichkeiten gibt. Fake ? Kann durchaus sein, aber dies alles um einen Fortschritt den es nicht gibt zu orchestrieren ? Das grenzt an existierende Verschwörungstheorien....
"Wenn der Wind der Veränderung weht, bauen die einen Mauern und die anderen Windmühlen." (aus China)
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

watisdatdenn? hat geschrieben:(30 Mar 2018, 18:12)

Hat du dir das Framework überhaupt genauer angeschaut?
GPGPU Nutzung über Webgl und ordentliche Performance mit einem JavaScript Framework plattformunabhängig.

Das ist Schnickschnack für dich?

Na dann zeig mal was du so drauf hast. Ich warte auf dein beeindruckendes github repository..
Das ist Firlefanz. Stell dir mal die Frage warum Google immer noch keine Echtzeitübersetzung eines beliebigen Textes hinkriegt. Geh doch mal auf eine türkische Facebookseite und lass dir einen Besucherkommentar übersetzen. Das Ergebnis ist ganz traurig. So sieht es in der Praxis aus. Und darum geht es. Was wird tatsächlich abgeliefert für den Endverbraucher. Und da wird mehr vorgetäuscht als geliefert. Gilt auch für Alexa und Co.. Alexa selbst ist blöd wie Brot. Die Dame braucht gigantische Rechenzentren im Internet um gesprochene Fragen zu beantworten. Auf die eigene Hardware zurückgeworfen ist Feierabend.

Und so sieht es eben auch für die weiteren Evolutionsstufen des autonomen Fahrens aus. Und die Idee einfach GPU`s wie beim Bitcoin-mining einzusetzen muß teuer erkauft werden. Ich denke du weißt wieviel Strom eine GPU verbraucht wenn man sie richtig fordert. Nicht umsonst hat meine 2 Lüfter alleine um die Hitze abzuführen. Und bedenke! Mobile Varianten leisten viel weniger als eine "echte" PC-GPU wie die ATI RX 580 mit 256 Bit Speicherbus. Und mobile CPU`s oder GPU´s für dass Auto müssen auch auf den Stromverbrauch achten. Sonst ist der Akku noch schneller leer.

Siehst du jetzt wo die Probleme liegen?
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Wähler
Beiträge: 8544
Registriert: Di 25. Dez 2012, 13:04
user title: Bürgerjournalismus
Wohnort: Bayern

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Wähler »

Alter Stubentiger hat geschrieben:(31 Mar 2018, 16:18)
Das ist Firlefanz. Stell dir mal die Frage warum Google immer noch keine Echtzeitübersetzung eines beliebigen Textes hinkriegt. Geh doch mal auf eine türkische Facebookseite und lass dir einen Besucherkommentar übersetzen. Das Ergebnis ist ganz traurig. So sieht es in der Praxis aus. Und darum geht es. Was wird tatsächlich abgeliefert für den Endverbraucher. Und da wird mehr vorgetäuscht als geliefert. Gilt auch für Alexa und Co.. Alexa selbst ist blöd wie Brot. Die Dame braucht gigantische Rechenzentren im Internet um gesprochene Fragen zu beantworten. Auf die eigene Hardware zurückgeworfen ist Feierabend.
Da ich kein IT-Professional bin, sondern nur Anwender einer Text-Mining-Software mit halbautomatischer Klassifikations-Unterstützung und Clustering, möchte ich meine Aussagen auf diese eng begrenzten Erfahrungen beschränken: Die besagte Software erinnert den Menschen an vergessene Muster. Sie zeigt auch unerwartete Muster auf, die einen auf zusätzliche mögliche Verknüpfungen zwischen Texten und Textgruppen bringen. Klingt jetzt nicht spektakulär, hilft aber ungemein im Alltag auch bei Recherchen in der Wissensdatenbank.
Zeitungstexte bei Genios mit Bibliotheksausweis kostenlos: https://www.wiso-net.de/login?targetUrl=%2Fdosearch (Zugang auch bundesweit)
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Wähler hat geschrieben:(31 Mar 2018, 16:49)

Da ich kein IT-Professional bin, sondern nur Anwender einer Text-Mining-Software mit halbautomatischer Klassifikations-Unterstützung und Clustering, möchte ich meine Aussagen auf diese eng begrenzten Erfahrungen beschränken: Die besagte Software erinnert den Menschen an vergessene Muster. Sie zeigt auch unerwartete Muster auf, die einen auf zusätzliche mögliche Verknüpfungen zwischen Texten und Textgruppen bringen. Klingt jetzt nicht spektakulär, hilft aber ungemein im Alltag auch bei Recherchen in der Wissensdatenbank.
Eine spezielle Aufgabe. Das ist die Domäne der Computer. Eigentlich geht es mir darum den Stromverbrauch von Lösungen in den Focus zu setzen den solche Ansätze verursachen. Mining-Software wie sie beim Bitcoin verwendet wird bringt derzeit die Stromversorgung Islands an ihre Grenzen. Wenn man also diesen Ansatz für eine Auto-KI verfolgen möchte damit sie wirklich intelligent und ohne Verbindung zum I-Net agieren kann dann hat man ein Stromproblem. Dies ließe sich mit der weiteren Miniaturisierung der Prozessoor-Strukturen lösen. Nur leider, leider steht man kurz vor dem Ende der Möglichkeiten der Miniaturisierung. Beim 5 Nanometer-Prozess ist wohl Feierabend. Und dass war es dann eben auch mit der mobilen KI.

Man braucht Lösungen die so sparsam und effektiv sind wie das menschliche Gehirn dass ein Auto mit einem minimalen Energieeinsatz ziemlich sicher bewegen kann.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Antworten