Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Moderator: Moderatoren Forum 4

Benutzeravatar
Alter Stubentiger
Beiträge: 3427
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » Fr 30. Mär 2018, 15:48

Ein Terraner hat geschrieben:(30 Mar 2018, 16:27)

Von Morgen spricht auch keiner, es geht um die nächsten 25-50 Jahre. Wenn man betrachtet was sich seit der Jahrtausendwende in Robotik und im Computer Bereich getan hat wird das restliche Jahrhundert bestimmt noch einiges bieten können.

Gerade bei den Prozessoren geht es seit geraumer Zeit kaum noch vorran. Man kann die Strukturen nur noch sehr mühsam verkleinern. Wachsender Aufwand - verringerter Ertrag. Zu allem Überfluß gibt es bei sehr kleinen Strukturen quantenmechanische Probleme. Elektronen können "tunneln" und andere exotische Effekte treten auf.

Also ohne einen grundsätzlich anderen Ansatz in der Computertechnik wird es nie wirklich intelligente Roboter geben. Es werden Fachidioten bleiben. Diese Entwicklung sieht man ja schon heute. Und eigentlich ist dass auch gut so.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Ein Terraner
Beiträge: 6258
Registriert: Sa 7. Mai 2016, 18:48
Wohnort: München

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Ein Terraner » Fr 30. Mär 2018, 16:03

Alter Stubentiger hat geschrieben:(30 Mar 2018, 16:48)

Gerade bei den Prozessoren geht es seit geraumer Zeit kaum noch vorran. Man kann die Strukturen nur noch sehr mühsam verkleinern. Wachsender Aufwand - verringerter Ertrag. Zu allem Überfluß gibt es bei sehr kleinen Strukturen quantenmechanische Probleme. Elektronen können "tunneln" und andere exotische Effekte treten auf.

Also ohne einen grundsätzlich anderen Ansatz in der Computertechnik wird es nie wirklich intelligente Roboter geben. Es werden Fachidioten bleiben. Diese Entwicklung sieht man ja schon heute. Und eigentlich ist dass auch gut so.

Du vergisst die Vernetzung, wenn dann werden solche Roboter eh nur ein verlängertes Organ einer zentralen K.I. sein.

Aber auch wenn es Probleme gibt, wir dürfen gespannt sein was da auf uns zukommen wird.
Licht und Dunkel

Artikel 13, Save the Internet Petition: https://www.change.org/p/stoppt-die-zen ... loadfilter
Was ist Artikel 13? https://www.youtube.com/watch?v=1DKk69J5pb4
Benutzeravatar
watisdatdenn?
Beiträge: 1965
Registriert: Do 19. Jun 2008, 14:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon watisdatdenn? » Fr 30. Mär 2018, 16:21

Alter Stubentiger hat geschrieben:(29 Mar 2018, 18:11)
Ist dass so? Ich schätze meinen Computer. Habe ich selber zusammengebaut. Ich habe früher auch auf Maschinenebene programmiert. Vielleicht fehlt mir deshalb dieser Glaube an die Allmacht der Algorithmen und der Robotertechnik. Vielleicht sehe ich deshalb die Grenzen.

Mach dich mal mit der darpa challenge vertraut. Es ist irre was jetzt schon funktioniert und wir sind gerade erst am Anfang die Dinge effizient zu nutzen.
Schau dir mal z.b. https://deeplearnjs.org/ an. Beeindruckend ist insbesondere das Beispiel:
https://teachablemachine.withgoogle.com/

Das ist kein programmieren mehr, sondern echtes teachen.. Im Browser mit Hardware die nicht dafür ausgelegt ist.
Das ist aber erst der Anfang
Benutzeravatar
Alter Stubentiger
Beiträge: 3427
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » Fr 30. Mär 2018, 17:05

Ein Terraner hat geschrieben:(30 Mar 2018, 17:03)

Du vergisst die Vernetzung, wenn dann werden solche Roboter eh nur ein verlängertes Organ einer zentralen K.I. sein.

Aber auch wenn es Probleme gibt, wir dürfen gespannt sein was da auf uns zukommen wird.


Tja. Es bleibt spannend. Eine Vernetzung von alles mit allem halte ich für technischen Irrsinn. Wie soll so etwas überhaupt wirtschaftlich sein? Denn neben dem technisch Machbarem steht noch die Wirtschaftlichkeit im Raum. Man sollte mal daran denken dass es Gegenden in Deutschland gibt die noch nicht mal schnelles Internet nach heutigem Standard haben. Und außerdem machen wir uns mit der Zunahme der Vernetzung zunehmend verwundbarer. Vor allem wenn man bedenkt daß Hacker weltweit einen Riesenspaß damit haben alles Mögliche zu hacken.

Ich finde einfach dass man einen Paradigmenwechsel braucht. Weg von der Übertechnisierung zu einer einfachen, robusten und zuverlässigen Technik bei der dann aber besseres Material für eine längere Lebensdauer verwendet wird. Was nutzt mir eine smarte Waschmaschine die nach 3 Jahren auseinanderfällt weil statt richtigen Metallteilen einfach immer mehr Plastik verwendet wird. Und das denke ich mir nicht so aus. Das ist der Trend in der Technik. Ich halte diesen Weg für grundfalsch und nicht nachhaltig.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Alter Stubentiger
Beiträge: 3427
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » Fr 30. Mär 2018, 17:06

watisdatdenn? hat geschrieben:(30 Mar 2018, 17:21)

Mach dich mal mit der darpa challenge vertraut. Es ist irre was jetzt schon funktioniert und wir sind gerade erst am Anfang die Dinge effizient zu nutzen.
Schau dir mal z.b. https://deeplearnjs.org/ an. Beeindruckend ist insbesondere das Beispiel:
https://teachablemachine.withgoogle.com/

Das ist kein programmieren mehr, sondern echtes teachen.. Im Browser mit Hardware die nicht dafür ausgelegt ist.
Das ist aber erst der Anfang


Das ist Schnickschnack.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
watisdatdenn?
Beiträge: 1965
Registriert: Do 19. Jun 2008, 14:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon watisdatdenn? » Fr 30. Mär 2018, 17:12

Alter Stubentiger hat geschrieben:(30 Mar 2018, 18:06)
Das ist Schnickschnack.

Hat du dir das Framework überhaupt genauer angeschaut?
GPGPU Nutzung über Webgl und ordentliche Performance mit einem JavaScript Framework plattformunabhängig.

Das ist Schnickschnack für dich?

Na dann zeig mal was du so drauf hast. Ich warte auf dein beeindruckendes github repository..
immernoch_ratlos
Beiträge: 1898
Registriert: So 10. Apr 2016, 16:59

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon immernoch_ratlos » Fr 30. Mär 2018, 17:49

H2O ich hatte schon immer regen Gebrauch von Büchern gemacht - in Enzyklopädien - ich erfreue mich gleich mehrere Druckausgaben inklusive einer von 1894 "Spammers Illustrierte Weltgeschichte" in zehn Bänden. Band X "Geschichte der neuesten Zeit" (1852 - 1878) endet mit dem "Berliner Kongreß" ich bin überzeugt ohne weitere Recherchen weiß niemand hier etwas darüber.

Das Problem mit echten Büchern ist das Recherchieren. Seit allerdings dieses Weltkulturerbe nach und nach digitalisiert wird, erleichtert das jede Art von Recherche. Ein Klick und ich finde im deutschsprachigen WIKIPEDIA dazu einen Artikel inkl. einer farbigen Darstellung des Gemäldes - ganz wie in meinem Buch, nur dort ist es ein ausklappbarer Schwarzweißdruck mit Namen der dargestellten Personen. Warum erwähne ich das ? Weil man auch WIKIPEDIA überprüfen kann und ganz wie in dessen papiernen Vorgängern, gibt es "politische" und andere "Darstellungen", die man durchaus hinterfragen muss. Nur schmälert dies den Wert der Information derart, dass man sie alle unter mehr, als einen vagen Verdacht stellen muss ? Ich glaube nein.

Diese erste Digitalisierung war nur durch menschliche Hilfe möglich. Inzwischen gibt es Buchscanner der gebundene Dokumente vollautomatisch scannt ein "Scan-Roboter" wie den da Ein Maschine - auf eine spezielle Aufgabe hin konstruiert - wie die meisten der inzwischen aktiven Roboter.

Ganz wie in der Natur alle Lebewesen haben ihren ganz eigenen Platz und sind meist hochspezialisiert. Die berühmte "Eierlegende Wollmilchsau" sucht man da vergeblich. Mensch der schon vieles bei der Natur abgekupfert hat, warum soll der nun etwas konstruieren, was ALLE menschlichen und nichtmenschlichen Fähigkeiten in nur einer Maschine abbildet ?

Hände die wie die menschliche Hand unserer Vormachtstellung unter den anderen Tieren erst ermöglicht hat, ist (wenn man nicht dem sog. "Intelligenten Design" anhängt) hat sich über zahllose Entwicklungsstufen ausgebildet. Nun kann man lange bevor das in der Robotik gelingen mag sich mit "auswechselbaren Spezialhänden" behelfen. Mit dem Vorteil, den die menschliche Hand eben nicht hat, diese an die jeweilige Tätigkeit anzupassen. Maschinen die wechselnde Tätigkeiten verrichten - bekommen - wenn das den notwendigen Vorteil bringt - einfach mehrere "Hände" oder die Maschine wechselt selbst diese "Gliedmaßen" je nach Aufgabe.

Ich halte es für völligen Unsinn, den Roboter "gottgleich" nach unserem Bilde zu schaffen. Es genügt völlig, wenn die betreffende Maschine kann, was ihre Aufgabe ist. Und das ist verdammt mehr von dem was inzwischen diese Maschinen statt uns Menschen tun können. Warum sollte man eine Maschine mit den menschlichen Unzulänglichkeiten belasten, nur damit sie uns möglichst gleicht ? Wer eine Schraube eindrehen oder lösen möchte, wird ja auch nicht zum Superwerkzeug mit dem man "alles" machen kann, greifen und einfach das EINE dafür konstruierte Werkzeug nutzen.

Genauso verhält es sich auch mit der "Software" - dafür werden immer leistungsfähigere Algorithmen entwickelt - noch nichts anderes, als eine sinnvolle Aneinanderreihung von Einzelschritten die "wir" uns ausgedacht haben - nicht mehr ganz allein s. "Eureqa"

Ganz sicher werden die sich nicht aus dem Geschäft zurückziehen und alles noch weiter vorantreiben : "Slaughterbots" Wer etwas mehr Zeit und Interesse hat : "The Dawn of Killer Robots (Full Length)" da wird auch versucht "menschenähnliche Fußgängern" das Laufen beizubringen...

Hände ? "The Mind-Controlled Bionic Arm With a Sense of Touch" sicher nicht perfekt - aber angesichts wie lange - wohl eher wie kurz die Zeit, seit es überhaupt derartigen Möglichkeiten gibt. Fake ? Kann durchaus sein, aber dies alles um einen Fortschritt den es nicht gibt zu orchestrieren ? Das grenzt an existierende Verschwörungstheorien....
"Wenn der Wind der Veränderung weht, bauen die einen Mauern und die anderen Windmühlen." (aus China)
Benutzeravatar
Alter Stubentiger
Beiträge: 3427
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » Sa 31. Mär 2018, 15:18

watisdatdenn? hat geschrieben:(30 Mar 2018, 18:12)

Hat du dir das Framework überhaupt genauer angeschaut?
GPGPU Nutzung über Webgl und ordentliche Performance mit einem JavaScript Framework plattformunabhängig.

Das ist Schnickschnack für dich?

Na dann zeig mal was du so drauf hast. Ich warte auf dein beeindruckendes github repository..


Das ist Firlefanz. Stell dir mal die Frage warum Google immer noch keine Echtzeitübersetzung eines beliebigen Textes hinkriegt. Geh doch mal auf eine türkische Facebookseite und lass dir einen Besucherkommentar übersetzen. Das Ergebnis ist ganz traurig. So sieht es in der Praxis aus. Und darum geht es. Was wird tatsächlich abgeliefert für den Endverbraucher. Und da wird mehr vorgetäuscht als geliefert. Gilt auch für Alexa und Co.. Alexa selbst ist blöd wie Brot. Die Dame braucht gigantische Rechenzentren im Internet um gesprochene Fragen zu beantworten. Auf die eigene Hardware zurückgeworfen ist Feierabend.

Und so sieht es eben auch für die weiteren Evolutionsstufen des autonomen Fahrens aus. Und die Idee einfach GPU`s wie beim Bitcoin-mining einzusetzen muß teuer erkauft werden. Ich denke du weißt wieviel Strom eine GPU verbraucht wenn man sie richtig fordert. Nicht umsonst hat meine 2 Lüfter alleine um die Hitze abzuführen. Und bedenke! Mobile Varianten leisten viel weniger als eine "echte" PC-GPU wie die ATI RX 580 mit 256 Bit Speicherbus. Und mobile CPU`s oder GPU´s für dass Auto müssen auch auf den Stromverbrauch achten. Sonst ist der Akku noch schneller leer.

Siehst du jetzt wo die Probleme liegen?
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Wähler
Beiträge: 3959
Registriert: Di 25. Dez 2012, 13:04
Wohnort: Bayern

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Wähler » Sa 31. Mär 2018, 15:49

Alter Stubentiger hat geschrieben:(31 Mar 2018, 16:18)
Das ist Firlefanz. Stell dir mal die Frage warum Google immer noch keine Echtzeitübersetzung eines beliebigen Textes hinkriegt. Geh doch mal auf eine türkische Facebookseite und lass dir einen Besucherkommentar übersetzen. Das Ergebnis ist ganz traurig. So sieht es in der Praxis aus. Und darum geht es. Was wird tatsächlich abgeliefert für den Endverbraucher. Und da wird mehr vorgetäuscht als geliefert. Gilt auch für Alexa und Co.. Alexa selbst ist blöd wie Brot. Die Dame braucht gigantische Rechenzentren im Internet um gesprochene Fragen zu beantworten. Auf die eigene Hardware zurückgeworfen ist Feierabend.

Da ich kein IT-Professional bin, sondern nur Anwender einer Text-Mining-Software mit halbautomatischer Klassifikations-Unterstützung und Clustering, möchte ich meine Aussagen auf diese eng begrenzten Erfahrungen beschränken: Die besagte Software erinnert den Menschen an vergessene Muster. Sie zeigt auch unerwartete Muster auf, die einen auf zusätzliche mögliche Verknüpfungen zwischen Texten und Textgruppen bringen. Klingt jetzt nicht spektakulär, hilft aber ungemein im Alltag auch bei Recherchen in der Wissensdatenbank.
Zeitungstexte bei Genios mit Bibliotheksausweis kostenlos: https://www.wiso-net.de/login?targetUrl=%2Fdosearch (Zugang auch bundesweit)
Benutzeravatar
Alter Stubentiger
Beiträge: 3427
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » So 1. Apr 2018, 15:52

Wähler hat geschrieben:(31 Mar 2018, 16:49)

Da ich kein IT-Professional bin, sondern nur Anwender einer Text-Mining-Software mit halbautomatischer Klassifikations-Unterstützung und Clustering, möchte ich meine Aussagen auf diese eng begrenzten Erfahrungen beschränken: Die besagte Software erinnert den Menschen an vergessene Muster. Sie zeigt auch unerwartete Muster auf, die einen auf zusätzliche mögliche Verknüpfungen zwischen Texten und Textgruppen bringen. Klingt jetzt nicht spektakulär, hilft aber ungemein im Alltag auch bei Recherchen in der Wissensdatenbank.

Eine spezielle Aufgabe. Das ist die Domäne der Computer. Eigentlich geht es mir darum den Stromverbrauch von Lösungen in den Focus zu setzen den solche Ansätze verursachen. Mining-Software wie sie beim Bitcoin verwendet wird bringt derzeit die Stromversorgung Islands an ihre Grenzen. Wenn man also diesen Ansatz für eine Auto-KI verfolgen möchte damit sie wirklich intelligent und ohne Verbindung zum I-Net agieren kann dann hat man ein Stromproblem. Dies ließe sich mit der weiteren Miniaturisierung der Prozessoor-Strukturen lösen. Nur leider, leider steht man kurz vor dem Ende der Möglichkeiten der Miniaturisierung. Beim 5 Nanometer-Prozess ist wohl Feierabend. Und dass war es dann eben auch mit der mobilen KI.

Man braucht Lösungen die so sparsam und effektiv sind wie das menschliche Gehirn dass ein Auto mit einem minimalen Energieeinsatz ziemlich sicher bewegen kann.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
watisdatdenn?
Beiträge: 1965
Registriert: Do 19. Jun 2008, 14:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon watisdatdenn? » Fr 18. Mai 2018, 22:19

Alter Stubentiger hat geschrieben:(31 Mar 2018, 16:18)
Siehst du jetzt wo die Probleme liegen?

Noch nicht. Ich hab mir jetzt mal eine kleine Anwendung auf Basis des squeezenet / knn Netzes und der Google teachable machine gebastelt mit der man beliebige Gegenstände nachdem sie über Webcam geteached sind erkennen kann...

Und das im Browser mit 2 Stunden Arbeit. War deutlich einfacher als gedacht (ok mit gewaltiger dankenswerter Vorarbeit von Google)
Da sehe ich schon viel praktisches Potential drin.. Ich weiss.. Du nur pipifax.

Mal sehen wer Recht behält..


Und ja ich finde die automatischen Übersetzungen schon nicht schlecht. Sie sind ausreichend gut um den Sinn chinesischer Texte zu erfassen.
Früher musste man dafür ein paar Semester Sinologe studieren..
Benutzeravatar
Alter Stubentiger
Beiträge: 3427
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » Sa 19. Mai 2018, 10:17

watisdatdenn? hat geschrieben:(18 May 2018, 23:19)

Noch nicht. Ich hab mir jetzt mal eine kleine Anwendung auf Basis des squeezenet / knn Netzes und der Google teachable machine gebastelt mit der man beliebige Gegenstände nachdem sie über Webcam geteached sind erkennen kann...

Und das im Browser mit 2 Stunden Arbeit. War deutlich einfacher als gedacht (ok mit gewaltiger dankenswerter Vorarbeit von Google)
Da sehe ich schon viel praktisches Potential drin.. Ich weiss.. Du nur pipifax.

Mal sehen wer Recht behält..


Und ja ich finde die automatischen Übersetzungen schon nicht schlecht. Sie sind ausreichend gut um den Sinn chinesischer Texte zu erfassen.
Früher musste man dafür ein paar Semester Sinologe studieren..

Und erkennt die Maschine das Bild eines Gegenstands noch wenn du z.B. ein Pflaster draufklebst oder der Maschine einen anderen Blickwinkel auf den Gegenstand präsentierst?
Wenn nicht ist es nur Memory auf Vorschulniveau.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
watisdatdenn?
Beiträge: 1965
Registriert: Do 19. Jun 2008, 14:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon watisdatdenn? » Sa 19. Mai 2018, 11:23

Alter Stubentiger hat geschrieben:(19 May 2018, 11:17)
Und erkennt die Maschine das Bild eines Gegenstands noch wenn du z.B. ein Pflaster draufklebst oder der Maschine einen anderen Blickwinkel auf den Gegenstand präsentierst?

Ja tut sie. Das ist ja das geile :) :thumbup: .
Es ist zwar auch nur Machine learning auf "Vorschulniveau" (bzw 95% von den Google Entwicklern "geklaut") aber als gelernter Maschinenbauer und IT Quereinsteiger bin ich da schon glücklich über das Ergebnis :).

Hab nebenbei auch noch Typescript gelernt.
immernoch_ratlos
Beiträge: 1898
Registriert: So 10. Apr 2016, 16:59

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon immernoch_ratlos » Sa 19. Mai 2018, 13:30

Hi Alter Stubentiger - man könnte es unfreundlich formulieren - Du bist nicht so recht in der Lage - bereits existierende Maschinen und deren Fähigkeiten zu finden, obwohl Dir schon jetzt mindestens 6.000tausend Suchmaschinen zur Verfügung stehen.

Völlig unexotisch habe ich einfach mal Tante Google gefragt : "Erkennen von Gegenständen durch Maschinen" Unter den Ungefähr 624.000 Ergebnissen die schon nach 0,35 Sekunden verfügbar waren, habe ich mir mal das WIKI "Maschinelles Sehen" herausgegriffen - in der Hoffnung mit dessen populärwissenschaftlichen Erklärungen auch zurechtzukommen. Nun es hat funktioniert - ich kann´s nur jedem empfehlen sich dort einmal zu orientieren und dann weiterzuforschen, wo derzeit die Grenzen liegen mögen. Dein geringes Vertrauen sollte schon durch diesen Satz (im WIKI) "Auf einem Förderband werden Beilegscheiben kontrolliert, um die Maßhaltigkeit zu überprüfen und die Fehlerquote des Endprodukts um mehrere Zehnerpotenzen zu verkleinern." ordentlich ins Wanken kommen. Für eine Maschine, die mühelos ungefähr 6millionenfach schneller rechnet, als ein Mensch, besteht überhaupt kein Problem einen Gegenstand den "sie" entweder in Datenbanken findet und oder aus bestehenden Daten errechnet, zu erkennen. Ohne solche Fähigkeiten wären die Dinger eher nutzlos.

Ich könnte inzwischen einen feinen Algorithmus zum Durchsuchen meiner nach tausenden zählenden Links brauchen, um schnell herauszufinden, welche englische Versicherung inzwischen JEDES Bild ihrer Kunden von einem Schaden an dessen KFZ nicht nur Typ usw. einwandfrei erkennt, gleich noch die Schadenshöhe für fällige Reparaturen errechnet und innerhalb von Minuten den Vorgang bereits vollständig abschließt.

Es wird nicht lange dauern, bis diese Maschine Rückschlüsse zum Unfallgeschehen präzise schafft und womöglich Betrugsversuche im selben "Aufwasch" erkennt und an seine "Meister" weiter meldet.

Nicht getestet habe ich das hier "Amazon Flow - Android App" eine :
CHIP hat geschrieben:kostenlose Android App "Amazon Flow" erkennt Produkte anhand Ihrer Handy-Kamera binnen Sekunden und liefert Ihnen obendrauf das jeweils günstigste Angebot - und das ganz ohne QR- oder EAN-Codes.
Keine Ahnung was daraus geworden ist, aber das dürfte alles schon weit jenseits Deiner Annahmen liegen.

Nebenbei ich wäre begeistert (von mir), wenn ich über die offensichtlichen Kenntnisse von watisdatdenn? verfügen würde. Leider staune ich bislang nur über all das, was da mit geradezu rasender Geschwindigkeit über uns hereinbricht... :?
"Wenn der Wind der Veränderung weht, bauen die einen Mauern und die anderen Windmühlen." (aus China)
Benutzeravatar
Alter Stubentiger
Beiträge: 3427
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » Sa 19. Mai 2018, 14:46

immernoch_ratlos hat geschrieben:(19 May 2018, 14:30)

Hi Alter Stubentiger - man könnte es unfreundlich formulieren - Du bist nicht so recht in der Lage - bereits existierende Maschinen und deren Fähigkeiten zu finden, obwohl Dir schon jetzt mindestens 6.000tausend Suchmaschinen zur Verfügung stehen.

Völlig unexotisch habe ich einfach mal Tante Google gefragt : "Erkennen von Gegenständen durch Maschinen" Unter den Ungefähr 624.000 Ergebnissen die schon nach 0,35 Sekunden verfügbar waren, habe ich mir mal das WIKI "Maschinelles Sehen" herausgegriffen - in der Hoffnung mit dessen populärwissenschaftlichen Erklärungen auch zurechtzukommen. Nun es hat funktioniert - ich kann´s nur jedem empfehlen sich dort einmal zu orientieren und dann weiterzuforschen, wo derzeit die Grenzen liegen mögen. Dein geringes Vertrauen sollte schon durch diesen Satz (im WIKI) "Auf einem Förderband werden Beilegscheiben kontrolliert, um die Maßhaltigkeit zu überprüfen und die Fehlerquote des Endprodukts um mehrere Zehnerpotenzen zu verkleinern." ordentlich ins Wanken kommen. Für eine Maschine, die mühelos ungefähr 6millionenfach schneller rechnet, als ein Mensch, besteht überhaupt kein Problem einen Gegenstand den "sie" entweder in Datenbanken findet und oder aus bestehenden Daten errechnet, zu erkennen. Ohne solche Fähigkeiten wären die Dinger eher nutzlos.

Ich könnte inzwischen einen feinen Algorithmus zum Durchsuchen meiner nach tausenden zählenden Links brauchen, um schnell herauszufinden, welche englische Versicherung inzwischen JEDES Bild ihrer Kunden von einem Schaden an dessen KFZ nicht nur Typ usw. einwandfrei erkennt, gleich noch die Schadenshöhe für fällige Reparaturen errechnet und innerhalb von Minuten den Vorgang bereits vollständig abschließt.

Es wird nicht lange dauern, bis diese Maschine Rückschlüsse zum Unfallgeschehen präzise schafft und womöglich Betrugsversuche im selben "Aufwasch" erkennt und an seine "Meister" weiter meldet.

Nicht getestet habe ich das hier "Amazon Flow - Android App" eine :Keine Ahnung was daraus geworden ist, aber das dürfte alles schon weit jenseits Deiner Annahmen liegen.

Nebenbei ich wäre begeistert (von mir), wenn ich über die offensichtlichen Kenntnisse von watisdatdenn? verfügen würde. Leider staune ich bislang nur über all das, was da mit geradezu rasender Geschwindigkeit über uns hereinbricht... :?

Schon deine Links zu Google zeigen neben Treffern zu den Suchworten auch jede Menge falsche "Treffer". Dies geht sehr schnell. Aber nicht durch Intelligenz sondern durch einen brute force Ansatz der eine ungeheure Rechenleistung erfordert. Schön dass die existiert. Aber es ist nur sehr schnelle digitale Automatisierung. Und wenn Facebook z.B. illegale Inhalte auf seiner Plattform herausfiltert setzt Facebook nicht auf pseudo-intelligente Algorithmen. Facebook setzt billige Arbeitskräfte auf den Philippinen ein. Schon daran erkennt man wie es wirklich steht bei den intelligenten Maschinen. Ich schätze die Situation schon richtig ein. "Smarte" Geräte befördern stellen eine digitale Automation dar die sehr schnell ihre begrenzten Aufgabenfelder bewältigen kann.

Das verleitet einige zu der Annahme dies wäre Intelligenz. Ist es aber nicht.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
watisdatdenn?
Beiträge: 1965
Registriert: Do 19. Jun 2008, 14:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon watisdatdenn? » Sa 19. Mai 2018, 19:41

immernoch_ratlos hat geschrieben:(19 May 2018, 14:30)
Nebenbei ich wäre begeistert (von mir), wenn ich über die offensichtlichen Kenntnisse von watisdatdenn? verfügen würde. Leider staune ich bislang nur über all das, was da mit geradezu rasender Geschwindigkeit über uns hereinbricht... :?

Danke für die Blumen.
Es ist tatsächlich aber kein Hexenwerk. Gerade auch wenn man noch keiner Ahnung von programmieren hat kann man hier gut neu einsteigen, weil der Fokus auf den Daten und der Form des neuronalen Netzes liegt (man kann viel mit neuronalen Netzen machen ohne programmieren zu müssen).

Hier kann jeder auch mal mit neuronalen Netzen spielen, ohne cntk, cuda, devbox oder anaconda python zu benötigen:
http://playground.tensorflow.org/
Da bekommt man etwas Intuition wie so ein neuronales Netz "tickt".

Da kam übrigends auch das beeindruckende tensorflow.js auch her..
Uffzach
Beiträge: 1475
Registriert: Mo 28. Aug 2017, 21:21

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Uffzach » Sa 19. Mai 2018, 22:08

Shellsort hat geschrieben:(04 Aug 2017, 17:00)

Warum unterschätzen viele Menschen noch immer die Macht von selbstlernenden Algorithmen?

Das ist nicht korrekt formuliert. Es gibt keine "selbstlernenden Algorithmen". Die Algorithmen lernen nichts. :cool:
immernoch_ratlos
Beiträge: 1898
Registriert: So 10. Apr 2016, 16:59

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon immernoch_ratlos » So 20. Mai 2018, 09:15

Alter Stubentiger hat geschrieben:Schon deine Links zu Google zeigen neben Treffern zu den Suchworten auch jede Menge falsche "Treffer". Dies geht sehr schnell. Aber nicht durch Intelligenz sondern durch einen brute force Ansatz der eine ungeheure Rechenleistung erfordert. Schön dass die existiert. Aber es ist nur sehr schnelle digitale Automatisierung. Und wenn Facebook z.B. illegale Inhalte auf seiner Plattform herausfiltert setzt Facebook nicht auf pseudo-intelligente Algorithmen. Facebook setzt billige Arbeitskräfte auf den Philippinen ein. Schon daran erkennt man wie es wirklich steht bei den intelligenten Maschinen. Ich schätze die Situation schon richtig ein. "Smarte" Geräte befördern stellen eine digitale Automation dar die sehr schnell ihre begrenzten Aufgabenfelder bewältigen kann.

Das verleitet einige zu der Annahme dies wäre Intelligenz. Ist es aber nicht.
"Falsche Treffer" ? Nun da Google die Suchmaschine als Mittel zum Zweck ansieht, sind mindestens ein großer Teil der sog. falschen Treffer - gewollte "falsche" Treffer. Das hat mit "menschlicher Intelligenz" zu tun. Wie intelligent das nun wieder ist, darf jeder selbst entscheiden.

Überhaupt, dieser Versuch, nur weil es keine "richtige" Intelligenz sei, sei etwas minderwertig, entspringt ausschließlich unserer menschlichen Vorstellung was Intelligenz zu sein hat.

Wenn Uffzach meint "Das ist nicht korrekt formuliert. Es gibt keine "selbstlernenden Algorithmen". Die Algorithmen lernen nichts. :cool:" hat er sicher gegenwärtig noch recht. Doch es lohnt sich nachzufragen was verbirgt sich denn überhaupt hinter diesem nun in Mode gekommenen Wort ? WIKI "Algorithmus" meint dazu :
Ein Algorithmus ist eine eindeutige Handlungsvorschrift zur Lösung eines Problems oder einer Klasse von Problemen. Algorithmen bestehen aus endlich vielen, wohldefinierten Einzelschritten.[1] Damit können sie zur Ausführung in einem Computerprogramm implementiert, aber auch in menschlicher Sprache formuliert werden. Bei der Problemlösung wird eine bestimmte Eingabe in eine bestimmte Ausgabe überführt.
Dann kommt viel über die Wortherkunft. Eigentlich hat jeder seine eigene Vorstellung zur Bedeutung.

Nun wäre die nächste Frage, was ist den überhaupt "lernen". Wo liegt der Unterschied zwischen einem menschlichen "Sortierer" am Fließband - Aschenputtel hat den "Algorithmus" dafür so formuliert "„Ja, die schlechten ins Kröpfchen, die guten ins Töpfchen." Hier "lernt" ein Tier zu sortieren. Formuliert Mensch das für eine seiner Maschinen "maschinengerecht", können die das auch und viel schneller. Schon gibt es einen "Basisalgorithmus" den (noch) "man" - auch auf andere ähnliche Vorgänge anpassen kann. Nun scheint dieser Knoten geplatzt zu sein, auch entsprechend ausgestattete Maschinen "ziehen logische Schlüsse" und wandeln das in neue Algorithmen.

Nun ich empfehle mal TEDxUVM 2011 - Mike Schmidt - The Robotic Scientist: Accelerating Discovery with Eureqa etwa bei 11:05 sagt Mike Schmidt "we let the algorithmen think about it" - was der Google Übersetzer in "Wir lassen die Algorithmen darüber nachdenken" interpretiert. Das System kommt durch "Beobachtung" und maschinelle "Denkprozesse" zu der korrekten Formel. OHNE diese Formel zuvor zu "kennen". Das System läuft unter dm Namen "Eureqa". Dort heißt es :
Ohne „Vorwissen“ leitete Eureqa Gleichungen der Hamiltonschen Mechanik und von Lagrange-Systemen ab und „entdeckte“ damit auch das Prinzip der Erhaltung der Energie. Die Erfolgsrate verschnellerte sich, wenn die Gleichungen, die für einfachere Systeme gefunden worden waren, bevorzugt zur Lösung der komplexeren Bewegungsdaten herangezogen werden konnten.
Oder dieser Teil :
Der Biologe Gurol Suel (University of Texas) untersucht das Wachstum von Bacillus subtilis. Er hatte bereits ein mathematisches Modell mit 16 Variablen entwickelt, dass die experimentellen Daten zu Konzentrationen von verschieden Proteinen und subzellulären Faktoren im Zusammenhang mit der Endosporenbildung von B. subtilis beschreiben konnte.

In einer Zusammenarbeit mit Lipson – und nach einem anfänglichen Fehlschlag mit dem Programm – lieferte erneutes Modelling mit Eureqa ein überraschendes Resultat: Eine neue Gleichung mit nur 7 Variablen konnte die vorliegenden Daten Suels in Zusammenhang bringen und lieferte sogar mit danach erzeugten, neuen Daten konsistente Ergebnisse. Doch diesem interessanten Ergebnis steht gegenüber, dass bisher weder Lipson noch Suel die Theorie hinter der neuen Gleichung schlüssig erklären können.
nun was ist das wohl - eine Maschine findet Zusammenhänge heraus, die für Menschen (Spezialisten auf ihrem Gebiet !) nicht kannten und nun rätseln müssen, wie denn die Maschine das wohl "meint".

Das mag ja nicht unserer menschlichen Intelligenz entsprechen, aber weitergeführt - durch Maschinen - kommt dabei womöglich eine neue Intelligenzform heraus, die der unseren überlegen ist. Einfach die menschliche Intelligenz "nachbauen" scheint mir nicht der rechte Ansatz. So gehen solche Bemerkungen schlicht ins Leere. Diese Einschätzung :
In Bezug zu Eureqa hat der Mathematiker Steven Strogatz die Vermutung geäußert, dass derzeit noch theoretisch unerklärbare mathematische Resultate Vorboten eines „end of insight“ sein könnten, wenn Computerprogramme in der Lage sind, wissenschaftliche Zusammenhänge herzustellen, die Menschen zwar als korrekt erkennen, ihnen aber intellektuell nicht mehr folgen können.

DaSilva argumentiert in eine ähnliche Richtung. Er hebt als Besonderheit „Eureqa’s ability to ‘discover’ (i.e. rediscover) the laws of nature“ heraus und vermutet, dass in Zukunft menschliche Wissenschaftler zusammen mit Netzwerken von evolutionär-algorithmischen Programmen Experimente und Auswertungen durchführen und Resultate finden werden, die [in der Technik] weiterverwendet werden, ohne dass die naturwissenschaftlichen Prinzipien dahinter verstanden werden (können), auf denen diese Resultate beruhen.
Jedenfalls traue ich den Einschätzungen der beteiligten Wissenschaftler deutlich mehr Relevanz zu, als den recht kleinkarierten Vorstellungen "wie Intelligenz zu sein habe"....

Was Google und YouTube beim "suchen" angeht, es müsste eigentlich klar sein, mit den nun zur Verfügung stehenden Mitteln sind 99,999... Treffergenauigkeit durchaus möglich - was dabei herauskommt ist schlechter im Sinn der Suche, aber in seiner verfälschten Form bewusst realisiert um "anderen Anforderungen" zu genügen. Das sollte menschliche Intelligenz eigentlich ganz alleine herausfinden können...
"Wenn der Wind der Veränderung weht, bauen die einen Mauern und die anderen Windmühlen." (aus China)
Benutzeravatar
Alter Stubentiger
Beiträge: 3427
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » So 20. Mai 2018, 15:45

immernoch_ratlos hat geschrieben:(20 May 2018, 10:15)

"Falsche Treffer" ? Nun da Google die Suchmaschine als Mittel zum Zweck ansieht, sind mindestens ein großer Teil der sog. falschen Treffer - gewollte "falsche" Treffer. Das hat mit "menschlicher Intelligenz" zu tun. Wie intelligent das nun wieder ist, darf jeder selbst entscheiden.

Überhaupt, dieser Versuch, nur weil es keine "richtige" Intelligenz sei, sei etwas minderwertig, entspringt ausschließlich unserer menschlichen Vorstellung was Intelligenz zu sein hat.

Wenn Uffzach meint "Das ist nicht korrekt formuliert. Es gibt keine "selbstlernenden Algorithmen". Die Algorithmen lernen nichts. :cool:" hat er sicher gegenwärtig noch recht. Doch es lohnt sich nachzufragen was verbirgt sich denn überhaupt hinter diesem nun in Mode gekommenen Wort ? WIKI "Algorithmus" meint dazu :Dann kommt viel über die Wortherkunft. Eigentlich hat jeder seine eigene Vorstellung zur Bedeutung.

Nun wäre die nächste Frage, was ist den überhaupt "lernen". Wo liegt der Unterschied zwischen einem menschlichen "Sortierer" am Fließband - Aschenputtel hat den "Algorithmus" dafür so formuliert "„Ja, die schlechten ins Kröpfchen, die guten ins Töpfchen." Hier "lernt" ein Tier zu sortieren. Formuliert Mensch das für eine seiner Maschinen "maschinengerecht", können die das auch und viel schneller. Schon gibt es einen "Basisalgorithmus" den (noch) "man" - auch auf andere ähnliche Vorgänge anpassen kann. Nun scheint dieser Knoten geplatzt zu sein, auch entsprechend ausgestattete Maschinen "ziehen logische Schlüsse" und wandeln das in neue Algorithmen.

Nun ich empfehle mal TEDxUVM 2011 - Mike Schmidt - The Robotic Scientist: Accelerating Discovery with Eureqa etwa bei 11:05 sagt Mike Schmidt "we let the algorithmen think about it" - was der Google Übersetzer in "Wir lassen die Algorithmen darüber nachdenken" interpretiert. Das System kommt durch "Beobachtung" und maschinelle "Denkprozesse" zu der korrekten Formel. OHNE diese Formel zuvor zu "kennen". Das System läuft unter dm Namen "Eureqa". Dort heißt es : Oder dieser Teil : nun was ist das wohl - eine Maschine findet Zusammenhänge heraus, die für Menschen (Spezialisten auf ihrem Gebiet !) nicht kannten und nun rätseln müssen, wie denn die Maschine das wohl "meint".

Das mag ja nicht unserer menschlichen Intelligenz entsprechen, aber weitergeführt - durch Maschinen - kommt dabei womöglich eine neue Intelligenzform heraus, die der unseren überlegen ist. Einfach die menschliche Intelligenz "nachbauen" scheint mir nicht der rechte Ansatz. So gehen solche Bemerkungen schlicht ins Leere. Diese Einschätzung :Jedenfalls traue ich den Einschätzungen der beteiligten Wissenschaftler deutlich mehr Relevanz zu, als den recht kleinkarierten Vorstellungen "wie Intelligenz zu sein habe"....

Was Google und YouTube beim "suchen" angeht, es müsste eigentlich klar sein, mit den nun zur Verfügung stehenden Mitteln sind 99,999... Treffergenauigkeit durchaus möglich - was dabei herauskommt ist schlechter im Sinn der Suche, aber in seiner verfälschten Form bewusst realisiert um "anderen Anforderungen" zu genügen. Das sollte menschliche Intelligenz eigentlich ganz alleine herausfinden können...


Man kann in der Tat unterschiedlich bewerten was intelligent ist. Deine hier präsentieren Inselbegabungen sind allerdings nicht intelligent. Solche Inselbegabungen gibt es auch bei Menschen. Es gibt Leute die können ganze Telefonbücher auswendig lernen und jederzeit abrufen oder bringen sich über Nacht das Klavierspielen bei. Das klingt erst mal nach irrsinniger Intelligenz. Aber diese Leute können sich oft kein Brot schmieren oder die Schuhe zubinden. Man nennt diese Leute Savants. Sie können eine Sache unvorstellbar gut. Andere Menschen sind nicht in der Lage ihre Leistungen nachzuvollziehen. So wie wir Menschen die Ergebnisse von "intelligenten" Algorithmen nicht nachvollziehen können. Nur kein Mensch käme auf die Idee Savants als Zukunft der Intelligenz darzustellen. Bei Algorithmen tut man dies aber. Das ist ein Irrweg.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
immernoch_ratlos
Beiträge: 1898
Registriert: So 10. Apr 2016, 16:59

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon immernoch_ratlos » So 20. Mai 2018, 20:28

Alter Stubentiger hat geschrieben:Man kann in der Tat unterschiedlich bewerten was intelligent ist. Deine hier präsentieren Inselbegabungen sind allerdings nicht intelligent. Solche Inselbegabungen gibt es auch bei Menschen. Es gibt Leute die können ganze Telefonbücher auswendig lernen und jederzeit abrufen oder bringen sich über Nacht das Klavierspielen bei. Das klingt erst mal nach irrsinniger Intelligenz. Aber diese Leute können sich oft kein Brot schmieren oder die Schuhe zubinden. Man nennt diese Leute Savants. Sie können eine Sache unvorstellbar gut. Andere Menschen sind nicht in der Lage ihre Leistungen nachzuvollziehen. So wie wir Menschen die Ergebnisse von "intelligenten" Algorithmen nicht nachvollziehen können. Nur kein Mensch käme auf die Idee Savants als Zukunft der Intelligenz darzustellen. Bei Algorithmen tut man dies aber. Das ist ein Irrweg.
Du hättest sicher recht, wenn es sich bei diesen "Inselbegabungen" tatsächlich um Menschen handeln würde.

Menschen überhaupt zu einem kollektiven Vorgehen zu ermuntern, ist schwierig bis unmöglich. Das Problem haben Maschinen überhaupt nicht. Sie lassen sich problemlos klonen und in jeder sinnvollen Konstellation miteinander verbinden. Das die Art der Verbindung von solchen "Algorithmen" selbst herausgefunden werden kann, wird ein nächster Schritt sein.

Womöglich sollte man den Begriff "Intelligenz" - eigentlich doch nur "die Fähigkeit, insbesondere durch abstraktes logisches Denken Probleme zu lösen und zweckmäßig zu handeln." Oder wie ein WIKI es formuliert :
WIKI Intelligenz hat geschrieben:Intelligenz (von lateinisch intellegere „verstehen“, wörtlich „wählen zwischen …“ von lat. inter „zwischen“ und legere „lesen, wählen“) ist in der Psychologie ein Sammelbegriff für die kognitive Leistungsfähigkeit des Menschen.

Da einzelne kognitive Fähigkeiten unterschiedlich stark ausgeprägt sein können und keine Einigkeit besteht, wie diese zu bestimmen und zu unterscheiden sind, gibt es keine allgemeingültige Definition der Intelligenz. Vielmehr schlagen die verschiedenen Intelligenztheorien unterschiedliche Operationalisierungen des alltagssprachlichen Begriffs vor.
Wohl bemerkt, all das gilt für Menschen. Denen sagt man ein "Bewusstsein" nach und wir definieren uns über unser Denken „ego cogito, ergo sum“ (Ich denke, also bin ich). Da fällt es schwer, einer Maschine "Intelligenz" zuzubilligen.

Ohnedies halten wir uns für etwas ganz besonderes und wenn jede "zusammenkonstruierte Maschine" das auch beanspruchen kann, dürfen wir die dann noch einfach verschrotten :(

Wenn Algorithmen eine Aussage treffen - wie z.B. dieses "eurqa - Konstrukt" und die ist logisch und richtig, was hindert uns daran dieses Werkzeug noch vielfältiger einzusetzen ? Es mit der inzwischen ungeheuren Datensammlung zu verbinden - um emotionslos "des Pudels Kern" zu finden ? Wie "intelligent" ist es dann, sich diesen objektiven Wahrheiten zu verschließen ?
"Wenn der Wind der Veränderung weht, bauen die einen Mauern und die anderen Windmühlen." (aus China)

Zurück zu „43. Computer - Internet - Telekommunikation - Netzpolitik“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast