Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Moderator: Moderatoren Forum 4

Benutzeravatar
Alter Stubentiger
Beiträge: 2838
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » Fr 30. Mär 2018, 15:48

Ein Terraner hat geschrieben:(30 Mar 2018, 16:27)

Von Morgen spricht auch keiner, es geht um die nächsten 25-50 Jahre. Wenn man betrachtet was sich seit der Jahrtausendwende in Robotik und im Computer Bereich getan hat wird das restliche Jahrhundert bestimmt noch einiges bieten können.

Gerade bei den Prozessoren geht es seit geraumer Zeit kaum noch vorran. Man kann die Strukturen nur noch sehr mühsam verkleinern. Wachsender Aufwand - verringerter Ertrag. Zu allem Überfluß gibt es bei sehr kleinen Strukturen quantenmechanische Probleme. Elektronen können "tunneln" und andere exotische Effekte treten auf.

Also ohne einen grundsätzlich anderen Ansatz in der Computertechnik wird es nie wirklich intelligente Roboter geben. Es werden Fachidioten bleiben. Diese Entwicklung sieht man ja schon heute. Und eigentlich ist dass auch gut so.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Ein Terraner
Beiträge: 5255
Registriert: Sa 7. Mai 2016, 18:48
Wohnort: München

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Ein Terraner » Fr 30. Mär 2018, 16:03

Alter Stubentiger hat geschrieben:(30 Mar 2018, 16:48)

Gerade bei den Prozessoren geht es seit geraumer Zeit kaum noch vorran. Man kann die Strukturen nur noch sehr mühsam verkleinern. Wachsender Aufwand - verringerter Ertrag. Zu allem Überfluß gibt es bei sehr kleinen Strukturen quantenmechanische Probleme. Elektronen können "tunneln" und andere exotische Effekte treten auf.

Also ohne einen grundsätzlich anderen Ansatz in der Computertechnik wird es nie wirklich intelligente Roboter geben. Es werden Fachidioten bleiben. Diese Entwicklung sieht man ja schon heute. Und eigentlich ist dass auch gut so.

Du vergisst die Vernetzung, wenn dann werden solche Roboter eh nur ein verlängertes Organ einer zentralen K.I. sein.

Aber auch wenn es Probleme gibt, wir dürfen gespannt sein was da auf uns zukommen wird.
Licht und Dunkel
Benutzeravatar
watisdatdenn?
Beiträge: 1600
Registriert: Do 19. Jun 2008, 14:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon watisdatdenn? » Fr 30. Mär 2018, 16:21

Alter Stubentiger hat geschrieben:(29 Mar 2018, 18:11)
Ist dass so? Ich schätze meinen Computer. Habe ich selber zusammengebaut. Ich habe früher auch auf Maschinenebene programmiert. Vielleicht fehlt mir deshalb dieser Glaube an die Allmacht der Algorithmen und der Robotertechnik. Vielleicht sehe ich deshalb die Grenzen.

Mach dich mal mit der darpa challenge vertraut. Es ist irre was jetzt schon funktioniert und wir sind gerade erst am Anfang die Dinge effizient zu nutzen.
Schau dir mal z.b. https://deeplearnjs.org/ an. Beeindruckend ist insbesondere das Beispiel:
https://teachablemachine.withgoogle.com/

Das ist kein programmieren mehr, sondern echtes teachen.. Im Browser mit Hardware die nicht dafür ausgelegt ist.
Das ist aber erst der Anfang
Benutzeravatar
Alter Stubentiger
Beiträge: 2838
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » Fr 30. Mär 2018, 17:05

Ein Terraner hat geschrieben:(30 Mar 2018, 17:03)

Du vergisst die Vernetzung, wenn dann werden solche Roboter eh nur ein verlängertes Organ einer zentralen K.I. sein.

Aber auch wenn es Probleme gibt, wir dürfen gespannt sein was da auf uns zukommen wird.


Tja. Es bleibt spannend. Eine Vernetzung von alles mit allem halte ich für technischen Irrsinn. Wie soll so etwas überhaupt wirtschaftlich sein? Denn neben dem technisch Machbarem steht noch die Wirtschaftlichkeit im Raum. Man sollte mal daran denken dass es Gegenden in Deutschland gibt die noch nicht mal schnelles Internet nach heutigem Standard haben. Und außerdem machen wir uns mit der Zunahme der Vernetzung zunehmend verwundbarer. Vor allem wenn man bedenkt daß Hacker weltweit einen Riesenspaß damit haben alles Mögliche zu hacken.

Ich finde einfach dass man einen Paradigmenwechsel braucht. Weg von der Übertechnisierung zu einer einfachen, robusten und zuverlässigen Technik bei der dann aber besseres Material für eine längere Lebensdauer verwendet wird. Was nutzt mir eine smarte Waschmaschine die nach 3 Jahren auseinanderfällt weil statt richtigen Metallteilen einfach immer mehr Plastik verwendet wird. Und das denke ich mir nicht so aus. Das ist der Trend in der Technik. Ich halte diesen Weg für grundfalsch und nicht nachhaltig.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Alter Stubentiger
Beiträge: 2838
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » Fr 30. Mär 2018, 17:06

watisdatdenn? hat geschrieben:(30 Mar 2018, 17:21)

Mach dich mal mit der darpa challenge vertraut. Es ist irre was jetzt schon funktioniert und wir sind gerade erst am Anfang die Dinge effizient zu nutzen.
Schau dir mal z.b. https://deeplearnjs.org/ an. Beeindruckend ist insbesondere das Beispiel:
https://teachablemachine.withgoogle.com/

Das ist kein programmieren mehr, sondern echtes teachen.. Im Browser mit Hardware die nicht dafür ausgelegt ist.
Das ist aber erst der Anfang


Das ist Schnickschnack.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
watisdatdenn?
Beiträge: 1600
Registriert: Do 19. Jun 2008, 14:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon watisdatdenn? » Fr 30. Mär 2018, 17:12

Alter Stubentiger hat geschrieben:(30 Mar 2018, 18:06)
Das ist Schnickschnack.

Hat du dir das Framework überhaupt genauer angeschaut?
GPGPU Nutzung über Webgl und ordentliche Performance mit einem JavaScript Framework plattformunabhängig.

Das ist Schnickschnack für dich?

Na dann zeig mal was du so drauf hast. Ich warte auf dein beeindruckendes github repository..
immernoch_ratlos
Beiträge: 1689
Registriert: So 10. Apr 2016, 16:59

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon immernoch_ratlos » Fr 30. Mär 2018, 17:49

H2O ich hatte schon immer regen Gebrauch von Büchern gemacht - in Enzyklopädien - ich erfreue mich gleich mehrere Druckausgaben inklusive einer von 1894 "Spammers Illustrierte Weltgeschichte" in zehn Bänden. Band X "Geschichte der neuesten Zeit" (1852 - 1878) endet mit dem "Berliner Kongreß" ich bin überzeugt ohne weitere Recherchen weiß niemand hier etwas darüber.

Das Problem mit echten Büchern ist das Recherchieren. Seit allerdings dieses Weltkulturerbe nach und nach digitalisiert wird, erleichtert das jede Art von Recherche. Ein Klick und ich finde im deutschsprachigen WIKIPEDIA dazu einen Artikel inkl. einer farbigen Darstellung des Gemäldes - ganz wie in meinem Buch, nur dort ist es ein ausklappbarer Schwarzweißdruck mit Namen der dargestellten Personen. Warum erwähne ich das ? Weil man auch WIKIPEDIA überprüfen kann und ganz wie in dessen papiernen Vorgängern, gibt es "politische" und andere "Darstellungen", die man durchaus hinterfragen muss. Nur schmälert dies den Wert der Information derart, dass man sie alle unter mehr, als einen vagen Verdacht stellen muss ? Ich glaube nein.

Diese erste Digitalisierung war nur durch menschliche Hilfe möglich. Inzwischen gibt es Buchscanner der gebundene Dokumente vollautomatisch scannt ein "Scan-Roboter" wie den da Ein Maschine - auf eine spezielle Aufgabe hin konstruiert - wie die meisten der inzwischen aktiven Roboter.

Ganz wie in der Natur alle Lebewesen haben ihren ganz eigenen Platz und sind meist hochspezialisiert. Die berühmte "Eierlegende Wollmilchsau" sucht man da vergeblich. Mensch der schon vieles bei der Natur abgekupfert hat, warum soll der nun etwas konstruieren, was ALLE menschlichen und nichtmenschlichen Fähigkeiten in nur einer Maschine abbildet ?

Hände die wie die menschliche Hand unserer Vormachtstellung unter den anderen Tieren erst ermöglicht hat, ist (wenn man nicht dem sog. "Intelligenten Design" anhängt) hat sich über zahllose Entwicklungsstufen ausgebildet. Nun kann man lange bevor das in der Robotik gelingen mag sich mit "auswechselbaren Spezialhänden" behelfen. Mit dem Vorteil, den die menschliche Hand eben nicht hat, diese an die jeweilige Tätigkeit anzupassen. Maschinen die wechselnde Tätigkeiten verrichten - bekommen - wenn das den notwendigen Vorteil bringt - einfach mehrere "Hände" oder die Maschine wechselt selbst diese "Gliedmaßen" je nach Aufgabe.

Ich halte es für völligen Unsinn, den Roboter "gottgleich" nach unserem Bilde zu schaffen. Es genügt völlig, wenn die betreffende Maschine kann, was ihre Aufgabe ist. Und das ist verdammt mehr von dem was inzwischen diese Maschinen statt uns Menschen tun können. Warum sollte man eine Maschine mit den menschlichen Unzulänglichkeiten belasten, nur damit sie uns möglichst gleicht ? Wer eine Schraube eindrehen oder lösen möchte, wird ja auch nicht zum Superwerkzeug mit dem man "alles" machen kann, greifen und einfach das EINE dafür konstruierte Werkzeug nutzen.

Genauso verhält es sich auch mit der "Software" - dafür werden immer leistungsfähigere Algorithmen entwickelt - noch nichts anderes, als eine sinnvolle Aneinanderreihung von Einzelschritten die "wir" uns ausgedacht haben - nicht mehr ganz allein s. "Eureqa"

Ganz sicher werden die sich nicht aus dem Geschäft zurückziehen und alles noch weiter vorantreiben : "Slaughterbots" Wer etwas mehr Zeit und Interesse hat : "The Dawn of Killer Robots (Full Length)" da wird auch versucht "menschenähnliche Fußgängern" das Laufen beizubringen...

Hände ? "The Mind-Controlled Bionic Arm With a Sense of Touch" sicher nicht perfekt - aber angesichts wie lange - wohl eher wie kurz die Zeit, seit es überhaupt derartigen Möglichkeiten gibt. Fake ? Kann durchaus sein, aber dies alles um einen Fortschritt den es nicht gibt zu orchestrieren ? Das grenzt an existierende Verschwörungstheorien....
"Wenn der Wind der Veränderung weht, bauen die einen Mauern und die anderen Windmühlen." (aus China)
Benutzeravatar
Alter Stubentiger
Beiträge: 2838
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » Sa 31. Mär 2018, 15:18

watisdatdenn? hat geschrieben:(30 Mar 2018, 18:12)

Hat du dir das Framework überhaupt genauer angeschaut?
GPGPU Nutzung über Webgl und ordentliche Performance mit einem JavaScript Framework plattformunabhängig.

Das ist Schnickschnack für dich?

Na dann zeig mal was du so drauf hast. Ich warte auf dein beeindruckendes github repository..


Das ist Firlefanz. Stell dir mal die Frage warum Google immer noch keine Echtzeitübersetzung eines beliebigen Textes hinkriegt. Geh doch mal auf eine türkische Facebookseite und lass dir einen Besucherkommentar übersetzen. Das Ergebnis ist ganz traurig. So sieht es in der Praxis aus. Und darum geht es. Was wird tatsächlich abgeliefert für den Endverbraucher. Und da wird mehr vorgetäuscht als geliefert. Gilt auch für Alexa und Co.. Alexa selbst ist blöd wie Brot. Die Dame braucht gigantische Rechenzentren im Internet um gesprochene Fragen zu beantworten. Auf die eigene Hardware zurückgeworfen ist Feierabend.

Und so sieht es eben auch für die weiteren Evolutionsstufen des autonomen Fahrens aus. Und die Idee einfach GPU`s wie beim Bitcoin-mining einzusetzen muß teuer erkauft werden. Ich denke du weißt wieviel Strom eine GPU verbraucht wenn man sie richtig fordert. Nicht umsonst hat meine 2 Lüfter alleine um die Hitze abzuführen. Und bedenke! Mobile Varianten leisten viel weniger als eine "echte" PC-GPU wie die ATI RX 580 mit 256 Bit Speicherbus. Und mobile CPU`s oder GPU´s für dass Auto müssen auch auf den Stromverbrauch achten. Sonst ist der Akku noch schneller leer.

Siehst du jetzt wo die Probleme liegen?
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Wähler
Beiträge: 3667
Registriert: Di 25. Dez 2012, 13:04
Wohnort: Bayern

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Wähler » Sa 31. Mär 2018, 15:49

Alter Stubentiger hat geschrieben:(31 Mar 2018, 16:18)
Das ist Firlefanz. Stell dir mal die Frage warum Google immer noch keine Echtzeitübersetzung eines beliebigen Textes hinkriegt. Geh doch mal auf eine türkische Facebookseite und lass dir einen Besucherkommentar übersetzen. Das Ergebnis ist ganz traurig. So sieht es in der Praxis aus. Und darum geht es. Was wird tatsächlich abgeliefert für den Endverbraucher. Und da wird mehr vorgetäuscht als geliefert. Gilt auch für Alexa und Co.. Alexa selbst ist blöd wie Brot. Die Dame braucht gigantische Rechenzentren im Internet um gesprochene Fragen zu beantworten. Auf die eigene Hardware zurückgeworfen ist Feierabend.

Da ich kein IT-Professional bin, sondern nur Anwender einer Text-Mining-Software mit halbautomatischer Klassifikations-Unterstützung und Clustering, möchte ich meine Aussagen auf diese eng begrenzten Erfahrungen beschränken: Die besagte Software erinnert den Menschen an vergessene Muster. Sie zeigt auch unerwartete Muster auf, die einen auf zusätzliche mögliche Verknüpfungen zwischen Texten und Textgruppen bringen. Klingt jetzt nicht spektakulär, hilft aber ungemein im Alltag auch bei Recherchen in der Wissensdatenbank.
Zeitungstexte bei Genios mit Bibliotheksausweis kostenlos: https://www.wiso-net.de/login?targetUrl=%2Fdosearch (Zugang auch bundesweit)
Benutzeravatar
Alter Stubentiger
Beiträge: 2838
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » So 1. Apr 2018, 15:52

Wähler hat geschrieben:(31 Mar 2018, 16:49)

Da ich kein IT-Professional bin, sondern nur Anwender einer Text-Mining-Software mit halbautomatischer Klassifikations-Unterstützung und Clustering, möchte ich meine Aussagen auf diese eng begrenzten Erfahrungen beschränken: Die besagte Software erinnert den Menschen an vergessene Muster. Sie zeigt auch unerwartete Muster auf, die einen auf zusätzliche mögliche Verknüpfungen zwischen Texten und Textgruppen bringen. Klingt jetzt nicht spektakulär, hilft aber ungemein im Alltag auch bei Recherchen in der Wissensdatenbank.

Eine spezielle Aufgabe. Das ist die Domäne der Computer. Eigentlich geht es mir darum den Stromverbrauch von Lösungen in den Focus zu setzen den solche Ansätze verursachen. Mining-Software wie sie beim Bitcoin verwendet wird bringt derzeit die Stromversorgung Islands an ihre Grenzen. Wenn man also diesen Ansatz für eine Auto-KI verfolgen möchte damit sie wirklich intelligent und ohne Verbindung zum I-Net agieren kann dann hat man ein Stromproblem. Dies ließe sich mit der weiteren Miniaturisierung der Prozessoor-Strukturen lösen. Nur leider, leider steht man kurz vor dem Ende der Möglichkeiten der Miniaturisierung. Beim 5 Nanometer-Prozess ist wohl Feierabend. Und dass war es dann eben auch mit der mobilen KI.

Man braucht Lösungen die so sparsam und effektiv sind wie das menschliche Gehirn dass ein Auto mit einem minimalen Energieeinsatz ziemlich sicher bewegen kann.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)

Zurück zu „43. Computer - Internet - Telekommunikation - Netzpolitik“

Wer ist online?

Mitglieder in diesem Forum: Google [Bot] und 1 Gast