Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Moderator: Moderatoren Forum 4

Benutzeravatar
Alter Stubentiger
Beiträge: 2038
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » Di 8. Aug 2017, 14:12

Nomen Nescio hat geschrieben:(08 Aug 2017, 13:27)

vergiß nicht basic. und pascal war auch nicht schlecht. ;)


Basic und Pascal sind interessant passen hier aber nicht hin.

Lisp hängt eng mit der ersten großen Hype um die KI zusammen und ging unter als man merkte das es so nix wird. Forschungsgelder wurden gekürzt und Lisp verschwand in der Versenkung.

Seit 1-2 Jahren redet man jetzt über selbstlernende Algorithmen. Diese Hype ist also recht jung. Ich werde ihr Ende wohl noch miterleben. Man sollte nicht vergessen das es nur Software ist. Die Hardware basiert immer noch auf der von Neumann Architektur und ist fundamental anders als das Funktionsprinzip des Gehirns. Und um die Sache noch zu erschweren fehlt es Softwareprogrammen vollständig an Input. Es gibt gar keine Sensorik um eine sich dynamisch veränderliche Umwelt in Echtzeit zu erfassen. Was es gibt ist alles rudimentär.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Alter Stubentiger
Beiträge: 2038
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » Di 8. Aug 2017, 14:13

Nomen Nescio hat geschrieben:(08 Aug 2017, 15:01)

genauso wie ein komplett gelähmter mensch das kann.

Der gleichzeitig blind und taub ist. Also gar nicht.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Shellsort
Beiträge: 59
Registriert: Fr 28. Jul 2017, 18:54

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Shellsort » Di 8. Aug 2017, 14:32

Zurück zur Frage bitte!
Meine Fragen sind nur Fragen, und gegen niemanden gerichtet.
Auch wenn sie blöd klingen...
Shellsort
Beiträge: 59
Registriert: Fr 28. Jul 2017, 18:54

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Shellsort » Di 8. Aug 2017, 15:01

Zurück zur Frage bitte!

Ob KI uns alle vernichten wird oder nicht ist keine Frage die wir beantworten können. Denn da es in der Zukunft stattfinden wird, können nur darüber philosophieren. Aber warum diese unterschätzt wird ist eine heutiges Phänomen der Gesellschaft(wo der Strang wahrscheinlich besser reinpasst wie mir gerade auffällt...) denn schon heute können KI nicht nur den Weg zum Bäcker finden, sondern auch (ziemlich realistische und sogar ziemlich schöne Gesichter erzeugen.) Etwas das Menschen beispielsweise oft schwerfällt, denn bis auf wenige Künstler benötigen die meisten Skulpturbauer noch immer ein Modell(oder ein Foto oder ähnliches).

Dabei sind Gesichter heute sogar noch relativ schwer zu generieren. Trotzdem bin ich überzeugt mit den entsprechenden Formeln und einer genügend großen Rechenleistung ließe sich bereits heute ein detailgetreues 3D-Standbild der Welt erstellen.

Achtung: Vllt. ziemlich unrealistischer Idealismus:
In wenigen Jahren(10-25) könnte es möglich sein dieses zu einer Simulation zu erweitern, an der man jegliche Entscheidungen einzelner Individuen oder ganzer Menschengruppen testen könnte. Man könnte praktisch im makrobereich die Zukunft vorhersehen. Das sieht dann so aus:

Es ist der 7.8.2040:
Dass der Ball von Simulationsbürger Nr°10.763.324.131 Timmy, 9 jahre alt auf dem Fußballplatz von der Wand abprallt, und dannach auf die Straße rollt, kann berechnet werden. Da hier praktisch nur Physik im Spiel ist. Dass Timmy danach dem Ball hinterherrennt, hat eine bestimmte Wahrscheinlichkeit (berechnet mithilfe von Massiver Datenerfassung aller Lebensbereiche durch erweitertes BigData) von z.B: 98,652%.
Also sendet dieser Simulierende Supercomputer eine Nachricht an das Selbstfahrende Auto das am am 8.8.2040 auf dieser Straße fahren wird, dass es doch bitte rechtzeitig bremsen soll.
Und schon hat man das Leben eines Menschen gerettet.

*ende "Vllt. ziemlich unrealistischer Idealismus"

Oder vernichtet, je nachdem was man mit dieser Intelligenz dann alles anstellt.
Denn das ist Intelligenz. Man kann schlecht etwas als "nicht intelligent" bezeichnen, das die nahe Zukunft vorhersehen kann.
Oder kann man? Leider gibt es keine richtige Definition von intelligent.

Google sagt:
"die Fähigkeit, insbesondere durch abstraktes logisches Denken Probleme zu lösen und zweckmäßig zu handeln."

ist Intelligenz. Aber ist dann nicht eigentlich der Programmierer intelligent? Denn er hat diese Maschiene erschaffen, welche "durch abstraktes logisches Denken" Probleme löst. Und das durch (abstraktes) logisches Denken.
Wer ist jetzt intelligent? Beide?
Meine Fragen sind nur Fragen, und gegen niemanden gerichtet.
Auch wenn sie blöd klingen...
Benutzeravatar
Nomen Nescio
Moderator
Beiträge: 9884
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Nomen Nescio » Di 8. Aug 2017, 15:21

Shellsort hat geschrieben:(08 Aug 2017, 16:01)

Es ist der 7.8.2040:
Dass der Ball von Simulationsbürger Nr°10.763.324.131 Timmy, 9 jahre alt auf dem Fußballplatz von der Wand abprallt, und dannach auf die Straße rollt, kann berechnet werden. Da hier praktisch nur Physik im Spiel ist. Dass Timmy danach dem Ball hinterherrennt, hat eine bestimmte Wahrscheinlichkeit (berechnet mithilfe von Massiver Datenerfassung aller Lebensbereiche durch erweitertes BigData) von z.B: 98,652%.
Also sendet dieser Simulierende Supercomputer eine Nachricht an das Selbstfahrende Auto das am am 8.8.2040 auf dieser Straße fahren wird, dass es doch bitte rechtzeitig bremsen soll.
Und schon hat man das Leben eines Menschen gerettet.

was durch viel menschen übersehen wird, ist daß ein quantumcomputer (±30 jahre) plötzlich die dimensionen des rechners ändert.
nicht mehr JA oder NEIN gibt es dann als möglichkeit, sondern auch »in between«.
das ist eigentlich was wir menschen auch tun.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Shellsort
Beiträge: 59
Registriert: Fr 28. Jul 2017, 18:54

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Shellsort » Di 8. Aug 2017, 15:39

Nomen Nescio hat geschrieben:(08 Aug 2017, 16:21)
nicht mehr JA oder NEIN gibt es dann als möglichkeit, sondern auch »in between«.

Kannst du ein Beispiel nennen?
Meine Fragen sind nur Fragen, und gegen niemanden gerichtet.
Auch wenn sie blöd klingen...
Benutzeravatar
Nomen Nescio
Moderator
Beiträge: 9884
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Nomen Nescio » Di 8. Aug 2017, 16:28

Shellsort hat geschrieben:(08 Aug 2017, 16:39)

Kannst du ein Beispiel nennen?

nur theoretisch. vergiß nicht, das man gerade einen prozessor entwickelt hat für was ich mal 1 byte nenne.

ist es nicht schrödingers katze, die entweder in A oder B ist. aber so lange man nicht guckt »in between« scheint?
das soll für die quantumcomputer auch gelten. dadurch kann eine serie von bytes alle mögliche zwischenantworte geben können. statt binair z.b. zehn als grundzahl.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Benutzeravatar
immernoch_ratlos
Beiträge: 1120
Registriert: So 10. Apr 2016, 16:59

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon immernoch_ratlos » Mi 9. Aug 2017, 01:07

Hallo Nescio,

nun ich will Dir nicht widersprechen - aber eine solche "Logik" gibt es schon als Theorie - "Fuzzy-Set-Theorie" - im "zuständigen WIKI" (ich hoffe es stört Dich nicht, das ich daraus zitiere) :
WIKI hat geschrieben:Die Überlegungen zu einer Logik der Unschärfe reichen zurück in die griechische Antike. Bereits der Philosoph Platon postulierte, dass zwischen den Begriffen wahr und falsch ein dritter Bereich liege.

Dies stand ganz im Gegensatz zu seinem Zeitgenossen Aristoteles, welcher die Präzision der Mathematik darin begründete, dass eine Aussage nur entweder wahr oder falsch sein kann.
Hier noch das engl. WIKI : Fuzzy logic
Fuzzy logic has been applied to many fields, from control theory to artificial intelligence.
Die "binäre Logik" lässt sich nicht überall anwenden. Unsere menschliche Fähigkeit uns verbal auszudrücken, bedarf nahezu in jeder Lebenslage dieses "dazwischen". Nachdem es also solche Techniken gibt, warum sollte eine Maschine nicht in der Lage sein dieses zu nutzen ?

Am Beispiel "Watson", der dortige Algorithmus, ist doch gerade dazu in der Lage und soweit ich nachlesen konnte, bereits ein gelungener Prozess des "Selbstlernens" und der "Selbstoptimierung" einer Maschine gewesen. Nachdem dieser Akt vollzogen war, hatten die beiden menschlichen Protagonisten (Sieger aus solchen Veranstaltungen in den "computerlosen" Jahren zuvor) in der amerikanische Quizshow "Jeopardy" (2011) keine Chance gegen die hohe Verarbeitungsgeschwindigkeit exakt vorliegende "Erinnerungen" auf die "Watson" nun auch "unscharf" zugreifen konnte. Dem Ganzen war ein intensiver "Lernprozess" der Softwareingenieure vorausgegangen.

Präzise und unverfälschte "Erinnerung" - also eine "Datenbank" ist die menschliche Erinnerung nun gerade nicht. Die Möglichkeit geschickt zu lügen und Wahrheit mit Scheinlogik zu "unterfüttern" mag Menschen täuschen, ein Maschine, welche zum "Querdenken" und nicht nur dazu in der Lage ist, kann solche Versuche schnell enttarnen.

Andere Maschinen wie das bereits erwähnte "Eureqa" analysieren "selbstständig" (vorausgesetzt sie verfügen über die notwendigen "Sinnesorgane") natürliche Vorgänge und stellen die optimierte Formel dazu eigenständig her. Wenn man den Berichten glauben kann, sind selbst hochkarätige Mathematiker inzwischen damit beschäftigt zu ergründen was die "Maschine" da an neuen Erkenntnissen "errechnet" hat. Offenbar ist es hier bereits für Menschen schwierig nachzuvollziehen was die Maschine erkannt und präzise beschrieben hat.

Es wird am Ende die Kombination all dieser Möglichkeiten sein, zu welcher die allermeisten Menschen nichtmehr in der Lage sein werden diese zu verstehen und schon jetzt nichtmehr selbstständig zu erfassen.

Ein Beispiel wie eine "Watson - Variante" in der Realität zum Einsatz kommt : Quelle : STERN (2017.01.06)
Ein japanischer Versicherungsanbieter macht diesbezüglich bereits jetzt Nägel mit Köpfen, wie der "Guardian" berichtet. Demnach will das Unternehmen Fokoku Mutual Life Insurance bis Ende März 34 seiner insgesamt 134 Mitarbeiter der Abteilung Schadensbemessung durch IBMs Watson-System, einer kognitiven Technologie, ersetzen. Dieses soll dem Bericht zufolge unter anderem medizinische Berichte einlesen und auswerten sowie fällige Zahlungen berechnen können. Da es zudem in der Lage sei, besondere Vertragsklauseln zu berücksichtigen, verspricht sich der Versicherer neben einer Zeitersparnis zudem eine Produktivitätssteigerung von 30 Prozent.

IBM: Watson-System "kann denken wie ein Mensch"

Dass die Einrichtung des Systems voraussichtlich umgerechnet rund 1,6 Millionen Euro kostet und pro Jahr weitere 120.000 Euro Wartungsausgaben nach sich ziehen wird, schreckt den Versicherer nicht ab. Vielmehr sei man überzeugt, dass die Installation letztlich etwa 1,1 Millionen Euro Personalkosten jährlich einspare und das Investment so binnen zwei Jahren wieder eingefahren sei, heißt es.

IBM selbst beschreibt sein Watson-System als "kognitive Technologie, die denken kann wie ein Mensch" und es so ermögliche, "jegliche Daten zu analysieren und zu interpretieren, inklusive unstrukturierter Texte, Bilder, Tonaufnahmen oder Videos".

Ein offenbar verlockendes Versprechen. Laut "Guardian" prüfen derzeit drei weitere japanische Versicherungsanbieter, künftig auf ähnliche Systeme zu setzen. Andere, darunter die Lebensversicherer Daichi Life Insurance und Nippon Life Insurance, haben diesen Schritt schon länger umgesetzt
Bei dem Tempo wie sich seit nur wenigen Jahren disruptive Hardware mit Software kombiniert und Prozesse des "Selbstlernens" und der "Selbstoptimierung" von Maschinen und die gleichzeitig immer engere Vernetzung von Informationen und Wissen durch Digitalisierung, wird bald kaum eine Organisation - staatlich und oder privat - an diesen Möglichkeiten vorbeikommen.

Unklar ist es doch heute schon, wo Maschinen bereits mindestens mittelbar scheinbar menschliche Entscheidungen treffen. Im wohl nicht ganz unwichtigen Bereich "Finanzen" entscheidet seit Jahren "Maschinenlogik".....
"Wenn der Wind der Veränderung weht, bauen die einen Mauern und die anderen Windmühlen." (aus China)
Benutzeravatar
schokoschendrezki
Beiträge: 9217
Registriert: Mi 15. Sep 2010, 15:17
Benutzertitel: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon schokoschendrezki » Mi 9. Aug 2017, 06:49

Es wurde in diesem Thread schon (indirekt) darauf hingewiesen: Nich die Komlexität, Speicherfähigkeit und Operationsgeschwindigkeit digitaler Maschinen unterscheidet sich grundlegend (und, da rein theoretisch und logisch auch für immer) vom menschlichen Gehirn. Sondern die Frage Determinismus (digitaler Computer) und Indeterminismus (Mensch). Es ist ein Kinderspiel selbst für ältere Computer "den Weg zum Bäcker zu finden": Nur: woher soll der von selbst ein Motiv dafür hernehmen? Oder auch: Es gibt selbst für die schnellsten und größten Computer ganz grundsätzlich keinerlei Möglichkeiten, über einen deterministischen Algorithmus, echte Zufallswerte zu generieren. Auch wenn es - für den Menschen - immer schwieriger wird, algorithmisch erzeugten Zufall von "echtem" zu unterscheiden. Bei Quantencomputern sieht die Sache schon ganz anders aus. Nur: Das menschliche Gehirn ist ja bereits ein ziemlich guter Quantencomputer. Was sind die chemischen und elektrischen neuronalen Prozesse im Gehirn anderes als quantenphysikalisch implementierte Operationen?

Nur auf der Basis "echter", also wirklich und tatsächlich und grundlegend zufälliger Prozesse - wie sie eben nur auf der Basis von Quantenphysik möglich ist - entsteht wirklich und echt Neues und damit auch Motivation in der Welt. Und es gibt ja auch (und zwar schon heute und schon seit einiger Zeit) Möglichkeiten, diese Sorte Quantencomputer weiterzuentwickeln: Mit Hilfe von Gentechnik nämlich. Die Grenze "Menschenzüchtung" darf dabei angeblich nicht überschritten werden. Es ist aber fraglich, ob sie nicht bereits überschritten wurde.
"Ich kann keine Nation lieben, ich kann keinen Staat lieben, ich kann nur meine Freunde lieben." Hannah Arendt
Benutzeravatar
schokoschendrezki
Beiträge: 9217
Registriert: Mi 15. Sep 2010, 15:17
Benutzertitel: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon schokoschendrezki » Mi 9. Aug 2017, 07:01

Rein mathematisch gesehen gibt es seit langem den Begriff der Turing-Mächtigkeit: Eine algorithmische Maschine, selbst wenn sie unendlich viel Speicher besäße, käme über diese Grenze der Berechenbarkeit nicht hinaus.
"Ich kann keine Nation lieben, ich kann keinen Staat lieben, ich kann nur meine Freunde lieben." Hannah Arendt
Benutzeravatar
immernoch_ratlos
Beiträge: 1120
Registriert: So 10. Apr 2016, 16:59

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon immernoch_ratlos » Mi 9. Aug 2017, 09:49

Woher das Motiv nehmen ? Damit hast Du gewiss recht. Es ist nur schwer vorstellbar, sich eine Maschine mit "Motiven" "auszumalen".

Menschen ticken einfach anders, als (vermutlich) "rational" ausgerichtete Maschinen. Menschen sind zu tiefst irrational. Eine "Vorstellung" die eine Maschine, so "sie" denn je etwas wie ein Bewusstsein entwickelt, nur haben wird, wenn etwas gewaltig schief läuft.

Die wichtigste Frage scheint mir, warum schaffen Menschen überhaupt rational begründbare Lösungen für all die Probleme welche sie seit Beginn der menschlichen Evolution begleiten :?: Es gibt nur ein Motiv das immer zählt, das ist sich selbst u.a.U. am Leben zu erhalten. Ob das eine Maschine überhaupt entwickeln kann :?:

Sowohl Software, als auch Hardware ist problemlos kopierbar. So gesehen hat das damit verbundene "maschinelle Bewusstsein" nur eine kombinierte "Sorge", sind genügend Ressourcen (Energie und Rohstoffe) vorhanden um sich zu reproduzieren ? Etwas, was offensichtlich Abermillionen von Menschen gerade nicht wirklich umtreibt. Die haben dafür Religionen und Ideologien entwickelt, deren Haupterfolg in einem "gekonnten Selbstbetrug" mündet. "Man" hält sich für etwas besonderes - etwas einmaliges. Rational gesehen ist Sapiens dies auf Grund seiner inzwischen entwickelten Fähigkeiten auch. Doch um sich selbst zu erhalten - eine optimale Menge seines Spezies im Gleichgewicht zu halten - "ohne natürliche Korrekturen von außen" - davon ist Sapiens mit derzeit ~7,4 Milliarden Individuen doch deutlich entfernt.

Würde eine Maschine sich selbst ihrer Überlebensgrundlagen begeben - wohl wissend, das "sie" damit ihr Ende riskiert ? Sobald sich vernetzte Maschinen dieser Probleme "bewusst" werden, ist Sapiens in einer weiteren Gefahr sich selbst zu eliminieren. Können Maschinen Kunst ? Haben zu "Schönheit" (wie "wir" sie recht unterschiedlich interpretieren) die selbe Beziehung ? Vermutlich ist da Perfektion die "neue Schönheit".

Nun ohne lückenlose Beweise antreten zu können, der Zeitpunkt, wo man Maschinen an einer eigenen Entwicklung hindern könnte ist bereits überschritten. Ob sich das gegen uns richtet, ob "wir" als Gefahr für deren "überleben" angesehen werden, hängt wohl auch davon ab, wie sehr wir die bekannten Irrationalitäten weiter pflegen.

Nur ein Beispiel - wer einer Maschine "sagt", es gäbe noch für 500 bis 1.000 Jahre "genügend" Kohle um das derzeitige Leben von Sapiens zu erhalten, gleichzeitig klar ist, das unsere gesamte aktuelle Lebensweise auf exponentielles Wachstum - auch und gerade von "Energiebedarf" ausgerichtet ist, "wohl wissend" (alle Daten dazu in einer zugriffsfähigen Datenbank) um die ~500.000 Jahre menschlicher Evolution, wer "glaubt" (darin - irrationale Vorstellungen "zu glauben" sind "wir " Spitze), einer Maschine würde diese Zusammenhänge entgehen oder "sie" könnte das (wie Sapiens) einfach ignorieren, der dürfte sich bereite heute sehr täuschen.

Sobald dies sich in vernetzten Maschinen "ankommt", wird es Einfluss auf die Ergebnisse dessen haben, was Maschinen (noch) in unserem Auftrag tun. Ein quasi "Organismus" bestehend aus den unterschiedlichsten Maschinenverbünden ist doch bereits in ersten noch rudimentären Zügen vorhanden. Wie viel maschinelles "Eigenleben" kann sich da entwickeln :?: "Wir" tendieren generell dazu "unangenehme" Arbeiten, aber auch Entscheidungen "anderen" zu überlassen. "Andere" waren bislang schlich Menschen, welche man dafür ausbeuten konnte. Doch längst sind die Kosten Menschen, als billige Arbeitskräfte zu erhalten - selbst Sklaven - teurer als die Investition in Maschinen. Unabhängig wie sinnvoll das ist, werden zur Gewinnmaximierung (dagegen habe ich generell zunächst nichts einzuwenden), zunehmen die Dienste von Maschinen vorgezogen. Eine weitere irrationale Vorstellung, dies kreiere wie selbstverständlich Ersatz für die so wegfallenden Jobs in nicht nur gleicher Anzahl, nein angesichts weiter mit exponentiellem ~1,1% Bevölkerungswachstum, auch für jährlich mindestens 80 Millionen weiterer Menschen. Gleichzeitig benötigt genau dieses System, eben diese Menschen um zu funktionieren. Die vergleichsweise alte Überlegung - "Roboter" (anfänglich waren Autos gemeint) kaufen keine "Roboter" - wie sollten "sie" bezahlen - wichtiger, welches Motiv sollten dafür haben ? Eine Bedingung erfüllen Maschinen im Gegensatz zu immer weniger Menschen, sie ARBEITEN. Wie "rational" ist die Überlegung, man könne einerseits teure Menschen durch Maschinen kostengünstig ersetzen, um dann wieder - mit natürlich teure neue Arbeitsplätze - für all jene zu schaffen, welche gerade "kostengünstig" ersetzt wurden um dort das Einkommen zu generieren, was die Abnahme von eben diesen maschinengenerierten Waren und zunehmend auch Diesnstleistungen garantiert. Das dies Heute noch funktioniert, ist kein rationales Argument für Morgen.

Solche "verwirklichte Fehleinschätzungen" bringt nur Sapiens fertig. Eine "vernetzter Maschinenorganismus" müsste zuerst Irrationalität (etwas das in krassem Widerspruch zu allem was "wir" über Maschinen wissen steht) selbst entwickeln :rolleyes: Einfach "einprogrammieren" scheitert längst an der "Lernfähigkeit" aktueller Maschinen :dead:
"Wenn der Wind der Veränderung weht, bauen die einen Mauern und die anderen Windmühlen." (aus China)
Benutzeravatar
Alter Stubentiger
Beiträge: 2038
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » Mi 9. Aug 2017, 10:31

Shellsort hat geschrieben:(08 Aug 2017, 16:01)

Zurück zur Frage bitte!

Ob KI uns alle vernichten wird oder nicht ist keine Frage die wir beantworten können. Denn da es in der Zukunft stattfinden wird, können nur darüber philosophieren. Aber warum diese unterschätzt wird ist eine heutiges Phänomen der Gesellschaft(wo der Strang wahrscheinlich besser reinpasst wie mir gerade auffällt...) denn schon heute können KI nicht nur den Weg zum Bäcker finden, sondern auch (ziemlich realistische und sogar ziemlich schöne Gesichter erzeugen.) Etwas das Menschen beispielsweise oft schwerfällt, denn bis auf wenige Künstler benötigen die meisten Skulpturbauer noch immer ein Modell(oder ein Foto oder ähnliches).

Dabei sind Gesichter heute sogar noch relativ schwer zu generieren. Trotzdem bin ich überzeugt mit den entsprechenden Formeln und einer genügend großen Rechenleistung ließe sich bereits heute ein detailgetreues 3D-Standbild der Welt erstellen.

Es gibt keine KI die den Weg zum Bäcker findet. Und 3D-Bilder sind einfach nur Rechenaufgaben. Mit KI hat dies wenig zu tun. Da werkelt hochspezialisierte Software. Das ist nur eine Form der Mechanisierung.

Ich sagte ja schon das man Algorithmen überschätzt. Und denke für wirklich denkende Computer ist die heutige, jahrzehntealte Computerarchitektur denkbar ungeeignet. Quantencomputer dürften da interessanter sein. Sie können mit Wahrscheinlichkeiten operieren. Heutige Rechner dagegen nur mit 0 oder 1. Aber das dürfte wohl noch etwas länger dauern.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Alter Stubentiger
Beiträge: 2038
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » Mi 9. Aug 2017, 10:36

schokoschendrezki hat geschrieben:(09 Aug 2017, 07:49)

Es wurde in diesem Thread schon (indirekt) darauf hingewiesen: Nich die Komlexität, Speicherfähigkeit und Operationsgeschwindigkeit digitaler Maschinen unterscheidet sich grundlegend (und, da rein theoretisch und logisch auch für immer) vom menschlichen Gehirn. Sondern die Frage Determinismus (digitaler Computer) und Indeterminismus (Mensch). Es ist ein Kinderspiel selbst für ältere Computer "den Weg zum Bäcker zu finden": Nur: woher soll der von selbst ein Motiv dafür hernehmen? Oder auch: Es gibt selbst für die schnellsten und größten Computer ganz grundsätzlich keinerlei Möglichkeiten, über einen deterministischen Algorithmus, echte Zufallswerte zu generieren. Auch wenn es - für den Menschen - immer schwieriger wird, algorithmisch erzeugten Zufall von "echtem" zu unterscheiden. Bei Quantencomputern sieht die Sache schon ganz anders aus. Nur: Das menschliche Gehirn ist ja bereits ein ziemlich guter Quantencomputer. Was sind die chemischen und elektrischen neuronalen Prozesse im Gehirn anderes als quantenphysikalisch implementierte Operationen?

Nur auf der Basis "echter", also wirklich und tatsächlich und grundlegend zufälliger Prozesse - wie sie eben nur auf der Basis von Quantenphysik möglich ist - entsteht wirklich und echt Neues und damit auch Motivation in der Welt. Und es gibt ja auch (und zwar schon heute und schon seit einiger Zeit) Möglichkeiten, diese Sorte Quantencomputer weiterzuentwickeln: Mit Hilfe von Gentechnik nämlich. Die Grenze "Menschenzüchtung" darf dabei angeblich nicht überschritten werden. Es ist aber fraglich, ob sie nicht bereits überschritten wurde.


Computer können den Wag zum Bäcker nur mit Hilfe eines statischen Weltmodells finden. Mit Blick auf echtes autonomes Autofahren erwarte ich aber das der Bordcomputer den Weg mit Hilfe der eigenen Sensorik findet und dabei keinen überfährt. Also ohne ständige Internetverbindung. Ich halte das Gängelband über I-Net für einen Irrweg weil viel zu stör und sabotageanfällig.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
schokoschendrezki
Beiträge: 9217
Registriert: Mi 15. Sep 2010, 15:17
Benutzertitel: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon schokoschendrezki » Mi 9. Aug 2017, 12:05

Alter Stubentiger hat geschrieben:(09 Aug 2017, 11:36)

Computer können den Wag zum Bäcker nur mit Hilfe eines statischen Weltmodells finden. Mit Blick auf echtes autonomes Autofahren erwarte ich aber das der Bordcomputer den Weg mit Hilfe der eigenen Sensorik findet und dabei keinen überfährt. Also ohne ständige Internetverbindung. Ich halte das Gängelband über I-Net für einen Irrweg weil viel zu stör und sabotageanfällig.

Das ist jetzt eher eine Frage des praktischen Einsatzes. Bereits historische Ferngläser oder Sextanten waren ziemlich effektive Navigationshilfen. Die Eingangsfrage habe ich eher als prinzipiell und sozusagen philosophisch verstanden.

"Autonom" ist für eine digitale Maschine gleich welcher Komplexität und Funktionstüchtigkeit eigentlich ein unpassendes Attribut. Äußere Bedingungen zu allen Zeitpunkten, Anfangszustand und Menge aller implementierten Algorithmen gegeben, lässt sich (theoretisch) die Verlaufstrajektorie exakt vorausberechnen. Ein anderer wichtiger (gleichfalls theoretischer) Zusammenhang spiegelt sich darin wieder, dass digitale Maschinen gundsätzlich keine Komplexität so überschreiten können, dass sie nicht von anderen digitalen Maschinen konstruierbar sind. Dieser grundsätzliche Determinismus ist der entscheidende Punkt, der auch von noch so komplexen und leistungsfähigen Digitalmaschinen prinzipiell nicht überschreitbar ist. Es kommt nix grundsätzlich Neues mit ihnen in die Welt.
"Ich kann keine Nation lieben, ich kann keinen Staat lieben, ich kann nur meine Freunde lieben." Hannah Arendt
Benutzeravatar
Alter Stubentiger
Beiträge: 2038
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » Mi 9. Aug 2017, 15:17

schokoschendrezki hat geschrieben:(09 Aug 2017, 13:05)

Das ist jetzt eher eine Frage des praktischen Einsatzes. Bereits historische Ferngläser oder Sextanten waren ziemlich effektive Navigationshilfen. Die Eingangsfrage habe ich eher als prinzipiell und sozusagen philosophisch verstanden.

"Autonom" ist für eine digitale Maschine gleich welcher Komplexität und Funktionstüchtigkeit eigentlich ein unpassendes Attribut. Äußere Bedingungen zu allen Zeitpunkten, Anfangszustand und Menge aller implementierten Algorithmen gegeben, lässt sich (theoretisch) die Verlaufstrajektorie exakt vorausberechnen. Ein anderer wichtiger (gleichfalls theoretischer) Zusammenhang spiegelt sich darin wieder, dass digitale Maschinen gundsätzlich keine Komplexität so überschreiten können, dass sie nicht von anderen digitalen Maschinen konstruierbar sind. Dieser grundsätzliche Determinismus ist der entscheidende Punkt, der auch von noch so komplexen und leistungsfähigen Digitalmaschinen prinzipiell nicht überschreitbar ist. Es kommt nix grundsätzlich Neues mit ihnen in die Welt.


Nur ist dieses "autonom" ein Etikett mit dem gerade kräftig geworben wird. Und daher kommt ja auch die Angst vor "selbstlernenden" Algorithmen. Dieses vorgaukeln von autonomen Denkprozessen weckt diese Ängste.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Nomen Nescio
Moderator
Beiträge: 9884
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Nomen Nescio » Mi 9. Aug 2017, 15:58

Alter Stubentiger hat geschrieben:(09 Aug 2017, 11:31)

Ich sagte ja schon das man Algorithmen überschätzt. Und denke für wirklich denkende Computer ist die heutige, jahrzehntealte Computerarchitektur denkbar ungeeignet. Quantencomputer dürften da interessanter sein. Sie können mit Wahrscheinlichkeiten operieren. Heutige Rechner dagegen nur mit 0 oder 1. Aber das dürfte wohl noch etwas länger dauern.

ich habe einfach die zeit genommen die die rechner brauchten um echt akzeptiert zu werden: 30 jahre.

von den ingenieuren die bei der entwicklung des 1 byte quantumrechners mitarbeiten hörte ich daß sie doch minimal mit 20 jahren rechnen.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Shellsort
Beiträge: 59
Registriert: Fr 28. Jul 2017, 18:54

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Shellsort » Mi 9. Aug 2017, 16:13

Alter Stubentiger hat geschrieben:(09 Aug 2017, 11:31)
Es gibt keine KI die den Weg zum Bäcker findet.

Google Maps? Ist nichteinmal eine KI.
Oder verstehe ich was falsch?
Ich bin verwirrt. Was genau ist denn jetzt dein Argument?
Meine Fragen sind nur Fragen, und gegen niemanden gerichtet.
Auch wenn sie blöd klingen...
Benutzeravatar
Alter Stubentiger
Beiträge: 2038
Registriert: Fr 6. Jan 2012, 08:20
Benutzertitel: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon Alter Stubentiger » Mi 9. Aug 2017, 17:12

Shellsort hat geschrieben:(09 Aug 2017, 17:13)

Google Maps? Ist nichteinmal eine KI.
Oder verstehe ich was falsch?
Ich bin verwirrt. Was genau ist denn jetzt dein Argument?


Google maps zeigt dir eine statische Welt. So wie alle anderen Navigationssysteme auch. All das was dir auf dem Weg zum Bäcker begegnet mußt du aber auch erfassen und die Bedeutung erkennen und gegebenenfalls reagieren. Dynamisch. Da liegt der Hase im Pfeffer. Ein Kind kann diese Problemstellung ohne Anstrengung lösen. Für Algorithmen ohne ausreichende Sensorik ist es aber unendlich schwer.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
schokoschendrezki
Beiträge: 9217
Registriert: Mi 15. Sep 2010, 15:17
Benutzertitel: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon schokoschendrezki » Mi 9. Aug 2017, 21:26

Alter Stubentiger hat geschrieben:(09 Aug 2017, 16:17)

Nur ist dieses "autonom" ein Etikett mit dem gerade kräftig geworben wird. Und daher kommt ja auch die Angst vor "selbstlernenden" Algorithmen. Dieses vorgaukeln von autonomen Denkprozessen weckt diese Ängste.


Bei denen, die sich schon jetzt von ihrem TV-Gerät sagen lassen, was sie schauen sollen, ist diese Angst auch berechtigt. "Autonomie" heißt wörtlich "Selbstbestimmtheit". Wer ein (möglichst weitgehend) selbstbestimmtes Leben führt, benutzt Technik einfach.

Auch "selbstlernende", dynamische, selbstreflektierende, selbstoptimierende Programmstrukturen im allgemeinen, sind letztlich nichts anderes als effektivere Methoden zur Komplexitätserschließung als statische Programmierung. Sie führen nicht grundsätztlich aus der Klasse der Algorithmen hinaus, die durch binär arbeitende Maschinen erstellbar sind. "Lernen" im eigentlichen Sinne ist alles andere als identisch mit "Selbstoptimierung".
"Ich kann keine Nation lieben, ich kann keinen Staat lieben, ich kann nur meine Freunde lieben." Hannah Arendt
Benutzeravatar
odiug
Moderator
Beiträge: 8571
Registriert: Di 25. Sep 2012, 06:44

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitragvon odiug » Mi 9. Aug 2017, 21:37

Was wir von AI zu erwarten haben, kann man hier nachlesen:
http://www.dailymail.co.uk/sciencetech/ ... ching.html
Solange man sie noch abschalten kann, ist ja alles gut.
Schlimm wird es, wenn nicht. :eek:
Wobei ... so einen großen Unterschied zu heute macht das auch nicht. :(
Moderatoren sind die Herren des Forums :x
Aber wir sind edel und gut, gerecht und unbestechlich und sorgen uns innig um das Wohlergehen unsrer Foristen.
Ich habe nun eine deutsche Tastatur ... äöüß :cool:

Zurück zu „43. Computer - Internet - Telekommunikation - Netzpolitik“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast