Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Moderator: Moderatoren Forum 4

Shellsort
Beiträge: 65
Registriert: Fr 28. Jul 2017, 19:54

Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Shellsort »

Warum unterschätzen viele Menschen noch immer die Macht von selbstlernenden Algorithmen?
Selbige werden in Zukunft das Leben aller auf der Welt verändern. Zum guten, oder zum schlechten hin.
Warum leugnen?
Bei der Menge an Geld und Anstrengungen die sehr große Firmen in die Entwicklung von AI's setzen muss auch irgendwann etwas rauskommen das mehr kann als sich mit mir auf Niveau eines Papageien unterhalten.
Doch viele halten das für sehr unwahrscheinlich, glauben sie doch sogar manchmal noch an die "Natürliche Überlegenheit" des Menschen.
Warum?
Meine Fragen sind nur Fragen, und gegen niemanden gerichtet.
Auch wenn sie blöd klingen...
Benutzeravatar
syna
Beiträge: 847
Registriert: Fr 30. Okt 2015, 08:04

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von syna »

Tja warum?
3 Punkte fallen mir dazu ein:

1. Die meisten Menschen können sich nicht vorstellen, dass
einmal eine Maschine überhaupt intelligent sein kann. Zur
Zeit sind wir von "allgemeiner Intelligenz" bei den Automaten
der KI weit entfernt. Dass dennoch in Zukunft ein Automat
"allgemein intelligent" sein könnte, das ist - für die meisten
Menschen - unvorstellbar. Und ehrlich gesagt: Das ist auch
für mich kaum vorstellbar (auch wenn ich weiß, dass es eines
Tages kommen wird).

2. KI-Maschinen werden in - einer für unser persönliches
Empfinden sehr fernen - Zukunft so oder so die
Administration übernehmen. Da ist es fast egal, ob wir uns
heute darüber Gedanken machen oder nicht.

3. Aktuell haben wir das Problem von "Big Data": Die Daten-
kraken Google, Facebook, Apple und Microsoft sammeln
große Mengen an persönlichen Daten über jeden Menschen,
und generieren damit einen gigantischen Informationsvorteil.
Selbst schon dieses Thema ist aber für die meisten Menschen
zu abstrakt - zu wenig "greifbar". Die spätere schrittweise
Dominanz der KI wird "noch weniger greifbar" sein.

--~~/§&%"$!\~~--
Ebiker
Beiträge: 6245
Registriert: Mo 16. Mai 2016, 11:06
user title: Elektrowitsch 1. Ordnung

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Ebiker »

Letztens wurden zwei KI abgeschaltet weil sie begonnen hatten sich in einer eigenen Sprache zu unterhalten.
Folgen sie den Anweisungen
immernoch_ratlos
Beiträge: 2344
Registriert: So 10. Apr 2016, 17:59

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von immernoch_ratlos »

Hatte das Thema auch schon mal "angeboten" - allerdings im Zusammenhang mit Arbeitsplätzen die dieser Trend "ersetzen" könnte, was auch sehr geringe "Gegenliebe" stieß.

Es sind nicht die einzelnen oft sehr schwer verstehbaren Ergebnisse dieser Forschung, ich sehe (wie auch sonst) das Vernetzen dieser Erkenntnisse, als den wahren Fortschritt. Wenn kombiniert wird was da noch isoliert voneinander bereits "gefunden" oder "erfunden" wurde, bleibt für die Mehrheit der Menschen wenig übrig.

Da wäre IBM Watson: How it Works (< 8 Minuten ) oder ~50 Minuten [Doku] Watson - Der Supercomputer oder Data Mining: Practical Machine Learning Tools and Techniques gern auch "Eureqa" oder Narrative Science (Übersicht) oder Anwendungen wie Care-O-bot® 4 feiert Premiere als Einkaufsassistent oder Supermarkt-Automatisierung: Einkaufskorb rechnet ab und packt ein oder Hardware die ohne "Digitalisierung" wohl kaum möglich geworden wäre - 3D-Druck : Die stille Revolution

Das ist nur ein kleiner Ausschnitt von dem was da längst etabliert ist und permanent weiterentwickelt wird. In "Kombination" werden unterschiedliche Bereiche die Geschwindigkeit der Ergebnisse erheblich steigern. Wer sich die Entwicklung der letzten 150 Jahre ansieht, kann ahnen was es bedeutet, wenn allein die letzten 20 Jahre für zuvor ungeahnte Entwicklungssprünge gebracht haben. Solange menschliche Intelligenz in ihrer Masse nicht mehr vernünftige Ergebnisse als das was sichtbar wird - wie bescheuert "wir" am eigenen Ast sägen - ist uns ein mittelmäßiger Computer längst überlegen. So dumm wie die aktuelle Menschheit agiert, das kann bereits jede AI längst besser - auch wenn es so scheint, als wären "wir" noch deutlich überlegen.

Ob eine Maschine vernünftig programmiert - sich selbst die Grundlagen ihres Überlebens abschneiden würde - kann mehr als bezweifelt werden. Wenn also menschliche Logik zu nichts als zur eigenen Gefährdung taugt, ist uns maschinelle Logik bereits längst überlegen.....

Noch diese Viertelstunde um TEDxUVM 2011 - Mike Schmidt - The Robotic Scientist: Accelerating Discovery with Eureqa zu folgen
"Wenn der Wind der Veränderung weht, bauen die einen Mauern und die anderen Windmühlen." (aus China)
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

Ebiker hat geschrieben:(06 Aug 2017, 21:57)

Letztens wurden zwei KI abgeschaltet weil sie begonnen hatten sich in einer eigenen Sprache zu unterhalten.
:D ich wollte das gerade auch sagen. es waren m.e. rechner von microsoft oder facebook. jedenfalls von einem großen amerikanischen betrieb.

außerdem passierte es, dachte ich, sogar zwei mal. es ist aber lange her daß ich das las.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Benutzeravatar
Yossarian
Beiträge: 3836
Registriert: Do 24. Sep 2015, 13:06

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Yossarian »

Ebiker hat geschrieben:(06 Aug 2017, 21:57)

Letztens wurden zwei KI abgeschaltet weil sie begonnen hatten sich in einer eigenen Sprache zu unterhalten.
Das ist ein feiner aber wichtiger Punkt.

Ich fürchte wir werden KIs niemals verstehen können.
Wahrscheinlich wird es ein nur Sekunden oder Minuten dauerndes Fenster geben auf dem Kommunikation möglich wäre. Danach wäre es als wenn sich eine Ameise an Quantenphysik versuchen würde. Achja, die Ameise wären wir.
Wenn ich einen Vogel sehe der wie eine Ente watschelt und wie eine Ente schwimmt und wie eine Ente quakt dann nenne ich ihn eine Ente. Und wenn der Vogel dementiert eine Ente zu sein ist es eine russische Ente.
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

Yossarian hat geschrieben:(07 Aug 2017, 14:22)

Das ist ein feiner aber wichtiger Punkt.

Ich fürchte wir werden KIs niemals verstehen können.
Wahrscheinlich wird es ein nur Sekunden oder Minuten dauerndes Fenster geben auf dem Kommunikation möglich wäre. Danach wäre es als wenn sich eine Ameise an Quantenphysik versuchen würde. Achja, die Ameise wären wir.
dann habe ich eine vllt enttäuschende mitteilung für dich. vor einigen wochen hörte ich, daß ein entscheidender schritt gemacht wurde bei der entwicklung eines prozessors für einen quantumrechner. habe leider einzelheiten vergessen, aber behalten daß für »1 bit« (meine umschreibung) die schwierigkeit gelöst war. ein schitt weiter, nach zwei bits? das scheint nicht leicht zu sein. geschweige von zig milliarden schaltungen.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Benutzeravatar
Yossarian
Beiträge: 3836
Registriert: Do 24. Sep 2015, 13:06

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Yossarian »

Nomen Nescio hat geschrieben:(07 Aug 2017, 14:55)

dann habe ich eine vllt enttäuschende mitteilung für dich. vor einigen wochen hörte ich, daß ein entscheidender schritt gemacht wurde bei der entwicklung eines prozessors für einen quantumrechner. habe leider einzelheiten vergessen, aber behalten daß für »1 bit« (meine umschreibung) die schwierigkeit gelöst war. ein schitt weiter, nach zwei bits? das scheint nicht leicht zu sein. geschweige von zig milliarden schaltungen.
Siehst du, das meine ich. Schon die Kommunikation zwischen zwei Menschen in der selben Sprache kann scheitern.
Ich zweifle nicht daran dass KI entstehen wird, ich bezweifle dass wir in der Lage sein werden sie zu verstehen und sie nicht daran interessiert mit uns zu kommunizieren. Vor allem selbstlernende Algorithmen haben die Eigenart zwar zum Erfolg zu führen aber auf nicht nachvollziehbaren Wegen.

Was hast du einer Amöbe zu erzählen? Dir ist vage bewusst dass sie ein vorstadium deiner Existenz darstellt, aber gäbe es wirklich etwas dasss du ihr mitteilen möchstest?
Wenn ich einen Vogel sehe der wie eine Ente watschelt und wie eine Ente schwimmt und wie eine Ente quakt dann nenne ich ihn eine Ente. Und wenn der Vogel dementiert eine Ente zu sein ist es eine russische Ente.
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

Yossarian hat geschrieben:(07 Aug 2017, 16:53)

Siehst du, das meine ich. Schon die Kommunikation zwischen zwei Menschen in der selben Sprache kann scheitern.
Ich zweifle nicht daran dass KI entstehen wird, ich bezweifle dass wir in der Lage sein werden sie zu verstehen und sie nicht daran interessiert mit uns zu kommunizieren. Vor allem selbstlernende Algorithmen haben die Eigenart zwar zum Erfolg zu führen aber auf nicht nachvollziehbaren Wegen.

Was hast du einer Amöbe zu erzählen? Dir ist vage bewusst dass sie ein vorstadium deiner Existenz darstellt, aber gäbe es wirklich etwas dasss du ihr mitteilen möchstest?
ich gebe sofort zu daß ich persönlich große bedenkungen habe. nicht gegen selbstlernende algorithmen an sich, aber gegen eine verschachtelung davon. denn die kontrolle droht so zu verschwinden. erstens ist das programmieren letztlich menschenarbeit - mit allen möglichen fehlern - und zweitens können wir überhaupt nicht ein solches handeln steuern.

und auch computer machen fehler. vllt hast du gelesen was die ursache war von einem fehler als die amerikanen eine raumsonde abschickten. ich dachte nach mars, aber bin davon nicht sicher.

die sonde hatte drei rechner. zwei sollten dauernd alle parameter kontrollieren und dann eine entscheidung treffen. war das resultat identisch, dann wurde was getan. waren sie verschieden, dann mußte nummer 3 die sache beurteilen. seine meinung mit der von 1 oder 2 mußte dann gelten.
als man später alles untersuchte, wurde was merkwürdiges entdeckt. sag mal daß 1 bei einem byte A las, wogegen 2 als resultat B notierte. 3 hatte z.b. auch A gelesen.
leider war das resultat B. mit allen folgen davon. wie das (wenn möglich) gelöst wurde, weiß ich nicht. dagegen weiß ich was ich empfehlen würde. es kostet mehr masse, aber laß die folgen der altenativen berechnen. simulieren also. dann gibt es jedenfalls noch eine möglichkeit katastrophes zu vermeiden. computers. dumme dingen.

du kennst das bekannte problem? drei hühner legen in 4 tagen drei eier. wieviel eier legt ein huhn pro tag? der computer antwortet dann vermutlich 1/4 ei. menschen vllt 3/4. :D
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Benutzeravatar
Brecrazur
Beiträge: 4
Registriert: Mo 7. Aug 2017, 05:52

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Brecrazur »

Der Trend der KI kann man nicht unterbinden, viele sehen auch darin eine große Chance, dieser Datenflut, die wir heute ausgesetzt sind besser zu regulieren.
Ich denke nicht, das Maschinen ein eigenes Bewusstsein entwickeln, dann wären wir ja Götter. Aber das sie von uns kopieren und leider auch das schlechte. Ich sag nur der Bot auf Twitter von Microsoft, der innerhalb von Stunden von Trollen radikalisiert worden ist. Aber genau deswegen braucht man diese Schritte um später nicht böse zu erwachen.


EDIT: Schreibfehler, Menschen statt Maschinen geschrieben.
Zuletzt geändert von Brecrazur am Mi 9. Aug 2017, 09:32, insgesamt 1-mal geändert.
Benutzeravatar
H2O
Moderator
Beiträge: 46981
Registriert: So 13. Sep 2015, 13:49
Wohnort: Zachodniopomorze

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von H2O »

Nomen Nescio hat geschrieben:(07 Aug 2017, 17:25)

...

du kennst das bekannte problem? drei hühner legen in 4 tagen drei eier. wieviel eier legt ein huhn pro tag? der computer antwortet dann vermutlich 1/4 ei. menschen vllt 3/4. :D
Müsste der Mensch nicht auch 1/4 Ei ausrechnen? 12 Hühnertage entsprechen 3 Eiern. 1 Hühnertag entspricht X Eiern....
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

H2O hat geschrieben:(08 Aug 2017, 09:41)

Müsste der Mensch nicht auch 1/4 Ei ausrechnen? 12 Hühnertage entsprechen 3 Eiern. 1 Hühnertag entspricht X Eiern....
ich vermute, daß die erste raktion ist: teilen durch 4. und weiter nicht nachdenken.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

Brecrazur hat geschrieben:(08 Aug 2017, 06:10)

Ich denke nicht, das Menschen ein eigenes Bewusstsein entwickeln
schreibfehler ?
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Shellsort hat geschrieben:(04 Aug 2017, 17:00)

Warum unterschätzen viele Menschen noch immer die Macht von selbstlernenden Algorithmen?
Selbige werden in Zukunft das Leben aller auf der Welt verändern. Zum guten, oder zum schlechten hin.
Warum leugnen?
Bei der Menge an Geld und Anstrengungen die sehr große Firmen in die Entwicklung von AI's setzen muss auch irgendwann etwas rauskommen das mehr kann als sich mit mir auf Niveau eines Papageien unterhalten.
Doch viele halten das für sehr unwahrscheinlich, glauben sie doch sogar manchmal noch an die "Natürliche Überlegenheit" des Menschen.
Warum?
Ich habe schon so manche Hype umd die KI miterlebt. Früher sollten Programmiersprachen wie Lisp oder Algol die Computer intelligent machen. Heute sollen es Algorithmen sein. Also die nackte Mathematik. Wie soll sowas intelligent sein oder werden? Zumal ohne den Input der uns zur Verfügung steht? Die KI kann gerade mal im Internet eine Weile Intelligenz vortäuschen. Also Texte analysieren oder irgendwas berechnen. Sonst nichts.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

Alter Stubentiger hat geschrieben:(08 Aug 2017, 12:46)

Ich habe schon so manche Hype umd die KI miterlebt. Früher sollten Programmiersprachen wie Lisp oder Algol die Computer intelligent machen. Heute sollen es Algorithmen sein. Also die nackte Mathematik. Wie soll sowas intelligent sein oder werden? Zumal ohne den Input der uns zur Verfügung steht? Die KI kann gerade mal im Internet eine Weile Intelligenz vortäuschen. Also Texte analysieren oder irgendwas berechnen. Sonst nichts.
wenn die rechengeschwindigkeit immer größer wird und die database größer und größer, ist ein rechner n.m.m. einmal fähig durch reine geschwindigkeit intelligenz zu schlagen. ob du das intelligenz nennst oder nicht ist dann nebensache.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

Alter Stubentiger hat geschrieben:(08 Aug 2017, 12:46)

Früher sollten Programmiersprachen wie Lisp oder Algol die Computer intelligent machen.
vergiß nicht basic. und pascal war auch nicht schlecht. ;)
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Maikel
Beiträge: 1258
Registriert: So 4. Jun 2017, 19:44

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Maikel »

Nomen Nescio hat geschrieben:(08 Aug 2017, 13:26)
wenn die rechengeschwindigkeit immer größer wird und die database größer und größer, ist ein rechner n.m.m. einmal fähig durch reine geschwindigkeit intelligenz zu schlagen. ob du das intelligenz nennst oder nicht ist dann nebensache.
Du denkst dabei wohl z.B. an Schachcomputer? Dazu:

"So unterlag die als unschlagbar geltende Schachmaschine „Hydra“ gegen einen menschlichen Spieler, der einen relativ schwachen Laptop als Hilfsmittel benutzte. Offenbar ist die Kombination aus Mensch und Computer der fähigsten Maschine immer noch überlegen."
15.Jan.15 aus Beitrag auf Handelsblatt.com
Die menschliche Sprache ist einzigartig, aber nicht eindeutig.
Jeder Versuch, sich mitzuteilen, kann nur mit dem Wohlwollen der anderen gelingen.
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Nomen Nescio hat geschrieben:(08 Aug 2017, 13:26)

wenn die rechengeschwindigkeit immer größer wird und die database größer und größer, ist ein rechner n.m.m. einmal fähig durch reine geschwindigkeit intelligenz zu schlagen. ob du das intelligenz nennst oder nicht ist dann nebensache.
So eine Maschine wird also morgens ihren Weg zum Bäcker finden?
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

Maikel hat geschrieben:(08 Aug 2017, 14:10)

Du denkst dabei wohl z.B. an Schachcomputer? Dazu:

"So unterlag die als unschlagbar geltende Schachmaschine „Hydra“ gegen einen menschlichen Spieler, der einen relativ schwachen Laptop als Hilfsmittel benutzte. Offenbar ist die Kombination aus Mensch und Computer der fähigsten Maschine immer noch überlegen."
15.Jan.15 aus Beitrag auf Handelsblatt.com
daran denke ich tatsächlich. aber auf meinem gebiet - medizin - gibt es ein beispiel daß vielsagend ist. schwer zu beurteilen sind mikroskopische bilder. betrifft es abweichungen oder ist es noch normal?

ein computer »lernte«. am ende hatte der rechner eine zuverlässigkeit von über 90%, wogegen spezialisten um die 80% hatten.
der rechner war programmiert um alle zweifelsfälle an menschen weiter zu leiten.

das sagt m.e. doch was.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

Alter Stubentiger hat geschrieben:(08 Aug 2017, 14:58)

So eine Maschine wird also morgens ihren Weg zum Bäcker finden?
genauso wie ein komplett gelähmter mensch das kann.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Nomen Nescio hat geschrieben:(08 Aug 2017, 13:27)

vergiß nicht basic. und pascal war auch nicht schlecht. ;)
Basic und Pascal sind interessant passen hier aber nicht hin.

Lisp hängt eng mit der ersten großen Hype um die KI zusammen und ging unter als man merkte das es so nix wird. Forschungsgelder wurden gekürzt und Lisp verschwand in der Versenkung.

Seit 1-2 Jahren redet man jetzt über selbstlernende Algorithmen. Diese Hype ist also recht jung. Ich werde ihr Ende wohl noch miterleben. Man sollte nicht vergessen das es nur Software ist. Die Hardware basiert immer noch auf der von Neumann Architektur und ist fundamental anders als das Funktionsprinzip des Gehirns. Und um die Sache noch zu erschweren fehlt es Softwareprogrammen vollständig an Input. Es gibt gar keine Sensorik um eine sich dynamisch veränderliche Umwelt in Echtzeit zu erfassen. Was es gibt ist alles rudimentär.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Nomen Nescio hat geschrieben:(08 Aug 2017, 15:01)

genauso wie ein komplett gelähmter mensch das kann.
Der gleichzeitig blind und taub ist. Also gar nicht.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Shellsort
Beiträge: 65
Registriert: Fr 28. Jul 2017, 19:54

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Shellsort »

Zurück zur Frage bitte!
Meine Fragen sind nur Fragen, und gegen niemanden gerichtet.
Auch wenn sie blöd klingen...
Shellsort
Beiträge: 65
Registriert: Fr 28. Jul 2017, 19:54

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Shellsort »

Zurück zur Frage bitte!

Ob KI uns alle vernichten wird oder nicht ist keine Frage die wir beantworten können. Denn da es in der Zukunft stattfinden wird, können nur darüber philosophieren. Aber warum diese unterschätzt wird ist eine heutiges Phänomen der Gesellschaft(wo der Strang wahrscheinlich besser reinpasst wie mir gerade auffällt...) denn schon heute können KI nicht nur den Weg zum Bäcker finden, sondern auch (ziemlich realistische und sogar ziemlich schöne Gesichter erzeugen.) Etwas das Menschen beispielsweise oft schwerfällt, denn bis auf wenige Künstler benötigen die meisten Skulpturbauer noch immer ein Modell(oder ein Foto oder ähnliches).

Dabei sind Gesichter heute sogar noch relativ schwer zu generieren. Trotzdem bin ich überzeugt mit den entsprechenden Formeln und einer genügend großen Rechenleistung ließe sich bereits heute ein detailgetreues 3D-Standbild der Welt erstellen.

Achtung: Vllt. ziemlich unrealistischer Idealismus:
In wenigen Jahren(10-25) könnte es möglich sein dieses zu einer Simulation zu erweitern, an der man jegliche Entscheidungen einzelner Individuen oder ganzer Menschengruppen testen könnte. Man könnte praktisch im makrobereich die Zukunft vorhersehen. Das sieht dann so aus:

Es ist der 7.8.2040:
Dass der Ball von Simulationsbürger Nr°10.763.324.131 Timmy, 9 jahre alt auf dem Fußballplatz von der Wand abprallt, und dannach auf die Straße rollt, kann berechnet werden. Da hier praktisch nur Physik im Spiel ist. Dass Timmy danach dem Ball hinterherrennt, hat eine bestimmte Wahrscheinlichkeit (berechnet mithilfe von Massiver Datenerfassung aller Lebensbereiche durch erweitertes BigData) von z.B: 98,652%.
Also sendet dieser Simulierende Supercomputer eine Nachricht an das Selbstfahrende Auto das am am 8.8.2040 auf dieser Straße fahren wird, dass es doch bitte rechtzeitig bremsen soll.
Und schon hat man das Leben eines Menschen gerettet.

*ende "Vllt. ziemlich unrealistischer Idealismus"

Oder vernichtet, je nachdem was man mit dieser Intelligenz dann alles anstellt.
Denn das ist Intelligenz. Man kann schlecht etwas als "nicht intelligent" bezeichnen, das die nahe Zukunft vorhersehen kann.
Oder kann man? Leider gibt es keine richtige Definition von intelligent.

Google sagt:
"die Fähigkeit, insbesondere durch abstraktes logisches Denken Probleme zu lösen und zweckmäßig zu handeln."
ist Intelligenz. Aber ist dann nicht eigentlich der Programmierer intelligent? Denn er hat diese Maschiene erschaffen, welche "durch abstraktes logisches Denken" Probleme löst. Und das durch (abstraktes) logisches Denken.
Wer ist jetzt intelligent? Beide?
Meine Fragen sind nur Fragen, und gegen niemanden gerichtet.
Auch wenn sie blöd klingen...
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

Shellsort hat geschrieben:(08 Aug 2017, 16:01)

Es ist der 7.8.2040:
Dass der Ball von Simulationsbürger Nr°10.763.324.131 Timmy, 9 jahre alt auf dem Fußballplatz von der Wand abprallt, und dannach auf die Straße rollt, kann berechnet werden. Da hier praktisch nur Physik im Spiel ist. Dass Timmy danach dem Ball hinterherrennt, hat eine bestimmte Wahrscheinlichkeit (berechnet mithilfe von Massiver Datenerfassung aller Lebensbereiche durch erweitertes BigData) von z.B: 98,652%.
Also sendet dieser Simulierende Supercomputer eine Nachricht an das Selbstfahrende Auto das am am 8.8.2040 auf dieser Straße fahren wird, dass es doch bitte rechtzeitig bremsen soll.
Und schon hat man das Leben eines Menschen gerettet.
was durch viel menschen übersehen wird, ist daß ein quantumcomputer (±30 jahre) plötzlich die dimensionen des rechners ändert.
nicht mehr JA oder NEIN gibt es dann als möglichkeit, sondern auch »in between«.
das ist eigentlich was wir menschen auch tun.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Shellsort
Beiträge: 65
Registriert: Fr 28. Jul 2017, 19:54

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Shellsort »

Nomen Nescio hat geschrieben:(08 Aug 2017, 16:21)
nicht mehr JA oder NEIN gibt es dann als möglichkeit, sondern auch »in between«.
Kannst du ein Beispiel nennen?
Meine Fragen sind nur Fragen, und gegen niemanden gerichtet.
Auch wenn sie blöd klingen...
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

Shellsort hat geschrieben:(08 Aug 2017, 16:39)

Kannst du ein Beispiel nennen?
nur theoretisch. vergiß nicht, das man gerade einen prozessor entwickelt hat für was ich mal 1 byte nenne.

ist es nicht schrödingers katze, die entweder in A oder B ist. aber so lange man nicht guckt »in between« scheint?
das soll für die quantumcomputer auch gelten. dadurch kann eine serie von bytes alle mögliche zwischenantworte geben können. statt binair z.b. zehn als grundzahl.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
immernoch_ratlos
Beiträge: 2344
Registriert: So 10. Apr 2016, 17:59

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von immernoch_ratlos »

Hallo Nescio,

nun ich will Dir nicht widersprechen - aber eine solche "Logik" gibt es schon als Theorie - "Fuzzy-Set-Theorie" - im "zuständigen WIKI" (ich hoffe es stört Dich nicht, das ich daraus zitiere) :
WIKI hat geschrieben:Die Überlegungen zu einer Logik der Unschärfe reichen zurück in die griechische Antike. Bereits der Philosoph Platon postulierte, dass zwischen den Begriffen wahr und falsch ein dritter Bereich liege.

Dies stand ganz im Gegensatz zu seinem Zeitgenossen Aristoteles, welcher die Präzision der Mathematik darin begründete, dass eine Aussage nur entweder wahr oder falsch sein kann.
Hier noch das engl. WIKI : Fuzzy logic
Fuzzy logic has been applied to many fields, from control theory to artificial intelligence.
Die "binäre Logik" lässt sich nicht überall anwenden. Unsere menschliche Fähigkeit uns verbal auszudrücken, bedarf nahezu in jeder Lebenslage dieses "dazwischen". Nachdem es also solche Techniken gibt, warum sollte eine Maschine nicht in der Lage sein dieses zu nutzen ?

Am Beispiel "Watson", der dortige Algorithmus, ist doch gerade dazu in der Lage und soweit ich nachlesen konnte, bereits ein gelungener Prozess des "Selbstlernens" und der "Selbstoptimierung" einer Maschine gewesen. Nachdem dieser Akt vollzogen war, hatten die beiden menschlichen Protagonisten (Sieger aus solchen Veranstaltungen in den "computerlosen" Jahren zuvor) in der amerikanische Quizshow "Jeopardy" (2011) keine Chance gegen die hohe Verarbeitungsgeschwindigkeit exakt vorliegende "Erinnerungen" auf die "Watson" nun auch "unscharf" zugreifen konnte. Dem Ganzen war ein intensiver "Lernprozess" der Softwareingenieure vorausgegangen.

Präzise und unverfälschte "Erinnerung" - also eine "Datenbank" ist die menschliche Erinnerung nun gerade nicht. Die Möglichkeit geschickt zu lügen und Wahrheit mit Scheinlogik zu "unterfüttern" mag Menschen täuschen, ein Maschine, welche zum "Querdenken" und nicht nur dazu in der Lage ist, kann solche Versuche schnell enttarnen.

Andere Maschinen wie das bereits erwähnte "Eureqa" analysieren "selbstständig" (vorausgesetzt sie verfügen über die notwendigen "Sinnesorgane") natürliche Vorgänge und stellen die optimierte Formel dazu eigenständig her. Wenn man den Berichten glauben kann, sind selbst hochkarätige Mathematiker inzwischen damit beschäftigt zu ergründen was die "Maschine" da an neuen Erkenntnissen "errechnet" hat. Offenbar ist es hier bereits für Menschen schwierig nachzuvollziehen was die Maschine erkannt und präzise beschrieben hat.

Es wird am Ende die Kombination all dieser Möglichkeiten sein, zu welcher die allermeisten Menschen nichtmehr in der Lage sein werden diese zu verstehen und schon jetzt nichtmehr selbstständig zu erfassen.

Ein Beispiel wie eine "Watson - Variante" in der Realität zum Einsatz kommt : Quelle : STERN (2017.01.06)
Ein japanischer Versicherungsanbieter macht diesbezüglich bereits jetzt Nägel mit Köpfen, wie der "Guardian" berichtet. Demnach will das Unternehmen Fokoku Mutual Life Insurance bis Ende März 34 seiner insgesamt 134 Mitarbeiter der Abteilung Schadensbemessung durch IBMs Watson-System, einer kognitiven Technologie, ersetzen. Dieses soll dem Bericht zufolge unter anderem medizinische Berichte einlesen und auswerten sowie fällige Zahlungen berechnen können. Da es zudem in der Lage sei, besondere Vertragsklauseln zu berücksichtigen, verspricht sich der Versicherer neben einer Zeitersparnis zudem eine Produktivitätssteigerung von 30 Prozent.

IBM: Watson-System "kann denken wie ein Mensch"

Dass die Einrichtung des Systems voraussichtlich umgerechnet rund 1,6 Millionen Euro kostet und pro Jahr weitere 120.000 Euro Wartungsausgaben nach sich ziehen wird, schreckt den Versicherer nicht ab. Vielmehr sei man überzeugt, dass die Installation letztlich etwa 1,1 Millionen Euro Personalkosten jährlich einspare und das Investment so binnen zwei Jahren wieder eingefahren sei, heißt es.

IBM selbst beschreibt sein Watson-System als "kognitive Technologie, die denken kann wie ein Mensch" und es so ermögliche, "jegliche Daten zu analysieren und zu interpretieren, inklusive unstrukturierter Texte, Bilder, Tonaufnahmen oder Videos".

Ein offenbar verlockendes Versprechen. Laut "Guardian" prüfen derzeit drei weitere japanische Versicherungsanbieter, künftig auf ähnliche Systeme zu setzen. Andere, darunter die Lebensversicherer Daichi Life Insurance und Nippon Life Insurance, haben diesen Schritt schon länger umgesetzt
Bei dem Tempo wie sich seit nur wenigen Jahren disruptive Hardware mit Software kombiniert und Prozesse des "Selbstlernens" und der "Selbstoptimierung" von Maschinen und die gleichzeitig immer engere Vernetzung von Informationen und Wissen durch Digitalisierung, wird bald kaum eine Organisation - staatlich und oder privat - an diesen Möglichkeiten vorbeikommen.

Unklar ist es doch heute schon, wo Maschinen bereits mindestens mittelbar scheinbar menschliche Entscheidungen treffen. Im wohl nicht ganz unwichtigen Bereich "Finanzen" entscheidet seit Jahren "Maschinenlogik".....
"Wenn der Wind der Veränderung weht, bauen die einen Mauern und die anderen Windmühlen." (aus China)
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Es wurde in diesem Thread schon (indirekt) darauf hingewiesen: Nich die Komlexität, Speicherfähigkeit und Operationsgeschwindigkeit digitaler Maschinen unterscheidet sich grundlegend (und, da rein theoretisch und logisch auch für immer) vom menschlichen Gehirn. Sondern die Frage Determinismus (digitaler Computer) und Indeterminismus (Mensch). Es ist ein Kinderspiel selbst für ältere Computer "den Weg zum Bäcker zu finden": Nur: woher soll der von selbst ein Motiv dafür hernehmen? Oder auch: Es gibt selbst für die schnellsten und größten Computer ganz grundsätzlich keinerlei Möglichkeiten, über einen deterministischen Algorithmus, echte Zufallswerte zu generieren. Auch wenn es - für den Menschen - immer schwieriger wird, algorithmisch erzeugten Zufall von "echtem" zu unterscheiden. Bei Quantencomputern sieht die Sache schon ganz anders aus. Nur: Das menschliche Gehirn ist ja bereits ein ziemlich guter Quantencomputer. Was sind die chemischen und elektrischen neuronalen Prozesse im Gehirn anderes als quantenphysikalisch implementierte Operationen?

Nur auf der Basis "echter", also wirklich und tatsächlich und grundlegend zufälliger Prozesse - wie sie eben nur auf der Basis von Quantenphysik möglich ist - entsteht wirklich und echt Neues und damit auch Motivation in der Welt. Und es gibt ja auch (und zwar schon heute und schon seit einiger Zeit) Möglichkeiten, diese Sorte Quantencomputer weiterzuentwickeln: Mit Hilfe von Gentechnik nämlich. Die Grenze "Menschenzüchtung" darf dabei angeblich nicht überschritten werden. Es ist aber fraglich, ob sie nicht bereits überschritten wurde.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Rein mathematisch gesehen gibt es seit langem den Begriff der Turing-Mächtigkeit: Eine algorithmische Maschine, selbst wenn sie unendlich viel Speicher besäße, käme über diese Grenze der Berechenbarkeit nicht hinaus.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
immernoch_ratlos
Beiträge: 2344
Registriert: So 10. Apr 2016, 17:59

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von immernoch_ratlos »

Woher das Motiv nehmen ? Damit hast Du gewiss recht. Es ist nur schwer vorstellbar, sich eine Maschine mit "Motiven" "auszumalen".

Menschen ticken einfach anders, als (vermutlich) "rational" ausgerichtete Maschinen. Menschen sind zu tiefst irrational. Eine "Vorstellung" die eine Maschine, so "sie" denn je etwas wie ein Bewusstsein entwickelt, nur haben wird, wenn etwas gewaltig schief läuft.

Die wichtigste Frage scheint mir, warum schaffen Menschen überhaupt rational begründbare Lösungen für all die Probleme welche sie seit Beginn der menschlichen Evolution begleiten :?: Es gibt nur ein Motiv das immer zählt, das ist sich selbst u.a.U. am Leben zu erhalten. Ob das eine Maschine überhaupt entwickeln kann :?:

Sowohl Software, als auch Hardware ist problemlos kopierbar. So gesehen hat das damit verbundene "maschinelle Bewusstsein" nur eine kombinierte "Sorge", sind genügend Ressourcen (Energie und Rohstoffe) vorhanden um sich zu reproduzieren ? Etwas, was offensichtlich Abermillionen von Menschen gerade nicht wirklich umtreibt. Die haben dafür Religionen und Ideologien entwickelt, deren Haupterfolg in einem "gekonnten Selbstbetrug" mündet. "Man" hält sich für etwas besonderes - etwas einmaliges. Rational gesehen ist Sapiens dies auf Grund seiner inzwischen entwickelten Fähigkeiten auch. Doch um sich selbst zu erhalten - eine optimale Menge seines Spezies im Gleichgewicht zu halten - "ohne natürliche Korrekturen von außen" - davon ist Sapiens mit derzeit ~7,4 Milliarden Individuen doch deutlich entfernt.

Würde eine Maschine sich selbst ihrer Überlebensgrundlagen begeben - wohl wissend, das "sie" damit ihr Ende riskiert ? Sobald sich vernetzte Maschinen dieser Probleme "bewusst" werden, ist Sapiens in einer weiteren Gefahr sich selbst zu eliminieren. Können Maschinen Kunst ? Haben zu "Schönheit" (wie "wir" sie recht unterschiedlich interpretieren) die selbe Beziehung ? Vermutlich ist da Perfektion die "neue Schönheit".

Nun ohne lückenlose Beweise antreten zu können, der Zeitpunkt, wo man Maschinen an einer eigenen Entwicklung hindern könnte ist bereits überschritten. Ob sich das gegen uns richtet, ob "wir" als Gefahr für deren "überleben" angesehen werden, hängt wohl auch davon ab, wie sehr wir die bekannten Irrationalitäten weiter pflegen.

Nur ein Beispiel - wer einer Maschine "sagt", es gäbe noch für 500 bis 1.000 Jahre "genügend" Kohle um das derzeitige Leben von Sapiens zu erhalten, gleichzeitig klar ist, das unsere gesamte aktuelle Lebensweise auf exponentielles Wachstum - auch und gerade von "Energiebedarf" ausgerichtet ist, "wohl wissend" (alle Daten dazu in einer zugriffsfähigen Datenbank) um die ~500.000 Jahre menschlicher Evolution, wer "glaubt" (darin - irrationale Vorstellungen "zu glauben" sind "wir " Spitze), einer Maschine würde diese Zusammenhänge entgehen oder "sie" könnte das (wie Sapiens) einfach ignorieren, der dürfte sich bereite heute sehr täuschen.

Sobald dies sich in vernetzten Maschinen "ankommt", wird es Einfluss auf die Ergebnisse dessen haben, was Maschinen (noch) in unserem Auftrag tun. Ein quasi "Organismus" bestehend aus den unterschiedlichsten Maschinenverbünden ist doch bereits in ersten noch rudimentären Zügen vorhanden. Wie viel maschinelles "Eigenleben" kann sich da entwickeln :?: "Wir" tendieren generell dazu "unangenehme" Arbeiten, aber auch Entscheidungen "anderen" zu überlassen. "Andere" waren bislang schlich Menschen, welche man dafür ausbeuten konnte. Doch längst sind die Kosten Menschen, als billige Arbeitskräfte zu erhalten - selbst Sklaven - teurer als die Investition in Maschinen. Unabhängig wie sinnvoll das ist, werden zur Gewinnmaximierung (dagegen habe ich generell zunächst nichts einzuwenden), zunehmen die Dienste von Maschinen vorgezogen. Eine weitere irrationale Vorstellung, dies kreiere wie selbstverständlich Ersatz für die so wegfallenden Jobs in nicht nur gleicher Anzahl, nein angesichts weiter mit exponentiellem ~1,1% Bevölkerungswachstum, auch für jährlich mindestens 80 Millionen weiterer Menschen. Gleichzeitig benötigt genau dieses System, eben diese Menschen um zu funktionieren. Die vergleichsweise alte Überlegung - "Roboter" (anfänglich waren Autos gemeint) kaufen keine "Roboter" - wie sollten "sie" bezahlen - wichtiger, welches Motiv sollten dafür haben ? Eine Bedingung erfüllen Maschinen im Gegensatz zu immer weniger Menschen, sie ARBEITEN. Wie "rational" ist die Überlegung, man könne einerseits teure Menschen durch Maschinen kostengünstig ersetzen, um dann wieder - mit natürlich teure neue Arbeitsplätze - für all jene zu schaffen, welche gerade "kostengünstig" ersetzt wurden um dort das Einkommen zu generieren, was die Abnahme von eben diesen maschinengenerierten Waren und zunehmend auch Diesnstleistungen garantiert. Das dies Heute noch funktioniert, ist kein rationales Argument für Morgen.

Solche "verwirklichte Fehleinschätzungen" bringt nur Sapiens fertig. Eine "vernetzter Maschinenorganismus" müsste zuerst Irrationalität (etwas das in krassem Widerspruch zu allem was "wir" über Maschinen wissen steht) selbst entwickeln :rolleyes: Einfach "einprogrammieren" scheitert längst an der "Lernfähigkeit" aktueller Maschinen :dead:
"Wenn der Wind der Veränderung weht, bauen die einen Mauern und die anderen Windmühlen." (aus China)
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Shellsort hat geschrieben:(08 Aug 2017, 16:01)

Zurück zur Frage bitte!

Ob KI uns alle vernichten wird oder nicht ist keine Frage die wir beantworten können. Denn da es in der Zukunft stattfinden wird, können nur darüber philosophieren. Aber warum diese unterschätzt wird ist eine heutiges Phänomen der Gesellschaft(wo der Strang wahrscheinlich besser reinpasst wie mir gerade auffällt...) denn schon heute können KI nicht nur den Weg zum Bäcker finden, sondern auch (ziemlich realistische und sogar ziemlich schöne Gesichter erzeugen.) Etwas das Menschen beispielsweise oft schwerfällt, denn bis auf wenige Künstler benötigen die meisten Skulpturbauer noch immer ein Modell(oder ein Foto oder ähnliches).

Dabei sind Gesichter heute sogar noch relativ schwer zu generieren. Trotzdem bin ich überzeugt mit den entsprechenden Formeln und einer genügend großen Rechenleistung ließe sich bereits heute ein detailgetreues 3D-Standbild der Welt erstellen.
Es gibt keine KI die den Weg zum Bäcker findet. Und 3D-Bilder sind einfach nur Rechenaufgaben. Mit KI hat dies wenig zu tun. Da werkelt hochspezialisierte Software. Das ist nur eine Form der Mechanisierung.

Ich sagte ja schon das man Algorithmen überschätzt. Und denke für wirklich denkende Computer ist die heutige, jahrzehntealte Computerarchitektur denkbar ungeeignet. Quantencomputer dürften da interessanter sein. Sie können mit Wahrscheinlichkeiten operieren. Heutige Rechner dagegen nur mit 0 oder 1. Aber das dürfte wohl noch etwas länger dauern.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

schokoschendrezki hat geschrieben:(09 Aug 2017, 07:49)

Es wurde in diesem Thread schon (indirekt) darauf hingewiesen: Nich die Komlexität, Speicherfähigkeit und Operationsgeschwindigkeit digitaler Maschinen unterscheidet sich grundlegend (und, da rein theoretisch und logisch auch für immer) vom menschlichen Gehirn. Sondern die Frage Determinismus (digitaler Computer) und Indeterminismus (Mensch). Es ist ein Kinderspiel selbst für ältere Computer "den Weg zum Bäcker zu finden": Nur: woher soll der von selbst ein Motiv dafür hernehmen? Oder auch: Es gibt selbst für die schnellsten und größten Computer ganz grundsätzlich keinerlei Möglichkeiten, über einen deterministischen Algorithmus, echte Zufallswerte zu generieren. Auch wenn es - für den Menschen - immer schwieriger wird, algorithmisch erzeugten Zufall von "echtem" zu unterscheiden. Bei Quantencomputern sieht die Sache schon ganz anders aus. Nur: Das menschliche Gehirn ist ja bereits ein ziemlich guter Quantencomputer. Was sind die chemischen und elektrischen neuronalen Prozesse im Gehirn anderes als quantenphysikalisch implementierte Operationen?

Nur auf der Basis "echter", also wirklich und tatsächlich und grundlegend zufälliger Prozesse - wie sie eben nur auf der Basis von Quantenphysik möglich ist - entsteht wirklich und echt Neues und damit auch Motivation in der Welt. Und es gibt ja auch (und zwar schon heute und schon seit einiger Zeit) Möglichkeiten, diese Sorte Quantencomputer weiterzuentwickeln: Mit Hilfe von Gentechnik nämlich. Die Grenze "Menschenzüchtung" darf dabei angeblich nicht überschritten werden. Es ist aber fraglich, ob sie nicht bereits überschritten wurde.
Computer können den Wag zum Bäcker nur mit Hilfe eines statischen Weltmodells finden. Mit Blick auf echtes autonomes Autofahren erwarte ich aber das der Bordcomputer den Weg mit Hilfe der eigenen Sensorik findet und dabei keinen überfährt. Also ohne ständige Internetverbindung. Ich halte das Gängelband über I-Net für einen Irrweg weil viel zu stör und sabotageanfällig.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Alter Stubentiger hat geschrieben:(09 Aug 2017, 11:36)

Computer können den Wag zum Bäcker nur mit Hilfe eines statischen Weltmodells finden. Mit Blick auf echtes autonomes Autofahren erwarte ich aber das der Bordcomputer den Weg mit Hilfe der eigenen Sensorik findet und dabei keinen überfährt. Also ohne ständige Internetverbindung. Ich halte das Gängelband über I-Net für einen Irrweg weil viel zu stör und sabotageanfällig.
Das ist jetzt eher eine Frage des praktischen Einsatzes. Bereits historische Ferngläser oder Sextanten waren ziemlich effektive Navigationshilfen. Die Eingangsfrage habe ich eher als prinzipiell und sozusagen philosophisch verstanden.

"Autonom" ist für eine digitale Maschine gleich welcher Komplexität und Funktionstüchtigkeit eigentlich ein unpassendes Attribut. Äußere Bedingungen zu allen Zeitpunkten, Anfangszustand und Menge aller implementierten Algorithmen gegeben, lässt sich (theoretisch) die Verlaufstrajektorie exakt vorausberechnen. Ein anderer wichtiger (gleichfalls theoretischer) Zusammenhang spiegelt sich darin wieder, dass digitale Maschinen gundsätzlich keine Komplexität so überschreiten können, dass sie nicht von anderen digitalen Maschinen konstruierbar sind. Dieser grundsätzliche Determinismus ist der entscheidende Punkt, der auch von noch so komplexen und leistungsfähigen Digitalmaschinen prinzipiell nicht überschreitbar ist. Es kommt nix grundsätzlich Neues mit ihnen in die Welt.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

schokoschendrezki hat geschrieben:(09 Aug 2017, 13:05)

Das ist jetzt eher eine Frage des praktischen Einsatzes. Bereits historische Ferngläser oder Sextanten waren ziemlich effektive Navigationshilfen. Die Eingangsfrage habe ich eher als prinzipiell und sozusagen philosophisch verstanden.

"Autonom" ist für eine digitale Maschine gleich welcher Komplexität und Funktionstüchtigkeit eigentlich ein unpassendes Attribut. Äußere Bedingungen zu allen Zeitpunkten, Anfangszustand und Menge aller implementierten Algorithmen gegeben, lässt sich (theoretisch) die Verlaufstrajektorie exakt vorausberechnen. Ein anderer wichtiger (gleichfalls theoretischer) Zusammenhang spiegelt sich darin wieder, dass digitale Maschinen gundsätzlich keine Komplexität so überschreiten können, dass sie nicht von anderen digitalen Maschinen konstruierbar sind. Dieser grundsätzliche Determinismus ist der entscheidende Punkt, der auch von noch so komplexen und leistungsfähigen Digitalmaschinen prinzipiell nicht überschreitbar ist. Es kommt nix grundsätzlich Neues mit ihnen in die Welt.
Nur ist dieses "autonom" ein Etikett mit dem gerade kräftig geworben wird. Und daher kommt ja auch die Angst vor "selbstlernenden" Algorithmen. Dieses vorgaukeln von autonomen Denkprozessen weckt diese Ängste.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

Alter Stubentiger hat geschrieben:(09 Aug 2017, 11:31)

Ich sagte ja schon das man Algorithmen überschätzt. Und denke für wirklich denkende Computer ist die heutige, jahrzehntealte Computerarchitektur denkbar ungeeignet. Quantencomputer dürften da interessanter sein. Sie können mit Wahrscheinlichkeiten operieren. Heutige Rechner dagegen nur mit 0 oder 1. Aber das dürfte wohl noch etwas länger dauern.
ich habe einfach die zeit genommen die die rechner brauchten um echt akzeptiert zu werden: 30 jahre.

von den ingenieuren die bei der entwicklung des 1 byte quantumrechners mitarbeiten hörte ich daß sie doch minimal mit 20 jahren rechnen.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Shellsort
Beiträge: 65
Registriert: Fr 28. Jul 2017, 19:54

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Shellsort »

Alter Stubentiger hat geschrieben:(09 Aug 2017, 11:31)
Es gibt keine KI die den Weg zum Bäcker findet.
Google Maps? Ist nichteinmal eine KI.
Oder verstehe ich was falsch?
Ich bin verwirrt. Was genau ist denn jetzt dein Argument?
Meine Fragen sind nur Fragen, und gegen niemanden gerichtet.
Auch wenn sie blöd klingen...
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Shellsort hat geschrieben:(09 Aug 2017, 17:13)

Google Maps? Ist nichteinmal eine KI.
Oder verstehe ich was falsch?
Ich bin verwirrt. Was genau ist denn jetzt dein Argument?
Google maps zeigt dir eine statische Welt. So wie alle anderen Navigationssysteme auch. All das was dir auf dem Weg zum Bäcker begegnet mußt du aber auch erfassen und die Bedeutung erkennen und gegebenenfalls reagieren. Dynamisch. Da liegt der Hase im Pfeffer. Ein Kind kann diese Problemstellung ohne Anstrengung lösen. Für Algorithmen ohne ausreichende Sensorik ist es aber unendlich schwer.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Alter Stubentiger hat geschrieben:(09 Aug 2017, 16:17)

Nur ist dieses "autonom" ein Etikett mit dem gerade kräftig geworben wird. Und daher kommt ja auch die Angst vor "selbstlernenden" Algorithmen. Dieses vorgaukeln von autonomen Denkprozessen weckt diese Ängste.
Bei denen, die sich schon jetzt von ihrem TV-Gerät sagen lassen, was sie schauen sollen, ist diese Angst auch berechtigt. "Autonomie" heißt wörtlich "Selbstbestimmtheit". Wer ein (möglichst weitgehend) selbstbestimmtes Leben führt, benutzt Technik einfach.

Auch "selbstlernende", dynamische, selbstreflektierende, selbstoptimierende Programmstrukturen im allgemeinen, sind letztlich nichts anderes als effektivere Methoden zur Komplexitätserschließung als statische Programmierung. Sie führen nicht grundsätztlich aus der Klasse der Algorithmen hinaus, die durch binär arbeitende Maschinen erstellbar sind. "Lernen" im eigentlichen Sinne ist alles andere als identisch mit "Selbstoptimierung".
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
odiug

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von odiug »

Was wir von AI zu erwarten haben, kann man hier nachlesen:
http://www.dailymail.co.uk/sciencetech/ ... ching.html
Solange man sie noch abschalten kann, ist ja alles gut.
Schlimm wird es, wenn nicht. :eek:
Wobei ... so einen großen Unterschied zu heute macht das auch nicht. :(
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

odiug hat geschrieben:(09 Aug 2017, 22:37)

Was wir von AI zu erwarten haben, kann man hier nachlesen:
http://www.dailymail.co.uk/sciencetech/ ... ching.html
Solange man sie noch abschalten kann, ist ja alles gut.
Schlimm wird es, wenn nicht. :eek:
Wobei ... so einen großen Unterschied zu heute macht das auch nicht. :(
Ich sehe das wesentlich entspannter. Tay ist vor allem der personifizierte - äh, "maschinisierte" - Konformismus. Aber auch wenn es natürlich nur Spekulation ist: So einfach wird der Bot nicht programmiert sein, dass er einfach nur Mehrheitsmeinungen nachplappert. Ich vermute, er sucht zunächst per Mustererkennung Konversationsstrukturen mit einem dynamischen Selbstorganisationspotenzial und einer strukturellen Abgrenzungsfähigkeit. Das ist alles andere als trivial. Vielleicht so wie aus verstreuten Einzelmessungen der Meeresströmungen, den Golfstrom herauszufiltern. Und versucht sich darin einzuordnen. Und hier auch nicht einfach als "Durchschnitt" sondern mit begrenztem Individualverhalten.

Ich sag mal zwei Sachen dazu: Als wenn man solches Verhalten nicht ebenso bei menschlichen Diskutanten erkennen könnte. Und: Als wenn dies nicht einfach und vor allem eine Reflexion schon bestehender Realität wäre.

Auch die Befürchtung, Bots könnten Börsencrashs oder politisches Chaos hervorrufen, teile ich nicht. Nicht, dass ich nicht wüsste, dass es Crashs und Chaos ja gibt und gab: Aber solche Bots weisen kein höheres Chaosstiftungspotenzial auf als Menschen.

Dass Bots eine bestehende politische oder gesellschaftliche Strömung verstärken können, ist trivialerweise richtig. Das tat aber vor bereits mehreren hundert Jahren die Erfindung des Buchdrucks auch. Wollen wir deshalb auf Bücher verzichten? Das Problem ist nicht der Buchdruck sondern die Chance, die sich einem Hetzer bietet, damit sein agressives Potenzial zu verbreiten. Der "Hexenhammer" und ähnliches waren eine der ersten Bücher, die durch den Buchdruck weite Verbreitung fanden und die maßgeblich zum Umsichgreifen der Hexenverfolgung beitrugen. Das Beispiel zeigt, dass das allgemeinere Problem nicht erst mit selbstlernenden Algorithmen und künstlichen Bots in der Welt ist.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

schokoschendrezki hat geschrieben:(09 Aug 2017, 22:26)

Bei denen, die sich schon jetzt von ihrem TV-Gerät sagen lassen, was sie schauen sollen, ist diese Angst auch berechtigt. "Autonomie" heißt wörtlich "Selbstbestimmtheit". Wer ein (möglichst weitgehend) selbstbestimmtes Leben führt, benutzt Technik einfach.

Auch "selbstlernende", dynamische, selbstreflektierende, selbstoptimierende Programmstrukturen im allgemeinen, sind letztlich nichts anderes als effektivere Methoden zur Komplexitätserschließung als statische Programmierung. Sie führen nicht grundsätztlich aus der Klasse der Algorithmen hinaus, die durch binär arbeitende Maschinen erstellbar sind. "Lernen" im eigentlichen Sinne ist alles andere als identisch mit "Selbstoptimierung".
Jo. Kann man so sagen. So ich es verstehe kann eine KI nur weitere Programme verbessern/erstellen. Sie kann aber sich selbst nicht weiter entwickeln da Programm und Daten in heutigen Rechnern immer streng voneinander getrennt sind. Oder habe ich da was falsch verstanden?
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

schokoschendrezki hat geschrieben:(10 Aug 2017, 07:20)

Auch die Befürchtung, Bots könnten Börsencrashs oder politisches Chaos hervorrufen, teile ich nicht. Nicht, dass ich nicht wüsste, dass es Crashs und Chaos ja gibt und gab: Aber solche Bots weisen kein höheres Chaosstiftungspotenzial auf als Menschen.
ohne das eingreifen wenn kursen abstürzen wäre ein crash nicht nur wahrscheinlich, sondern sicher passiert.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Shellsort
Beiträge: 65
Registriert: Fr 28. Jul 2017, 19:54

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Shellsort »

Alter Stubentiger hat geschrieben:(09 Aug 2017, 18:12)
Für Algorithmen ohne ausreichende Sensorik ist es aber unendlich schwer.
Nehmen wir einmal an, du (als intelligentes Lebewesen)bist in einem Raum eingesperrt, aus dem du fliehen musst. Dazu musst du nur zur Türe gehen und sie öffnen.

Nur dass du keine deiner Sinne benutzen darfst.
Da haben wir die selbe Situation.
Meine Fragen sind nur Fragen, und gegen niemanden gerichtet.
Auch wenn sie blöd klingen...
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Alter Stubentiger hat geschrieben:(10 Aug 2017, 11:59)

Jo. Kann man so sagen. So ich es verstehe kann eine KI nur weitere Programme verbessern/erstellen. Sie kann aber sich selbst nicht weiter entwickeln da Programm und Daten in heutigen Rechnern immer streng voneinander getrennt sind. Oder habe ich da was falsch verstanden?
Naja, sind sie eigentlich nicht. Der Trick bei den selbstlernenden Programmen besteht ja gerade darin, dass sie selbst zu veränderlichen Daten gemacht werden und eben nicht mehr nur statisch irgendwelche getrennten Daten verändern (sondern sich selbst).

Der wesentliche Punkt besteht (meiner Ansicht nach) darin, dass auch sie keine spontanen, unlogischen, einer gegebenen Optimierungsaufgabe widersprechenden Aktionen machen könne, weil sie eben binär und deterministisch bleiben. Auch bei einem selbstlernendes Programm, das einfach mal so den Wasserhahn aufdreht, wenn im Keller das Wasser ansteigt, würde jeder Ingenieur dir einen Vogel zeigen, wenn Du behauptest, genau darin bestünde die prinzipielle Überlegenheit (analoger) Lebewesen. Wobei analog im Wesentlichen meint: Fähig zur Erzeugung eines "echten" Indeterminismus.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
Perdedor
Beiträge: 3462
Registriert: Do 5. Jun 2008, 23:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Perdedor »

schokoschendrezki hat geschrieben: Nich die Komlexität, Speicherfähigkeit und Operationsgeschwindigkeit digitaler Maschinen unterscheidet sich grundlegend (und, da rein theoretisch und logisch auch für immer) vom menschlichen Gehirn. Sondern die Frage Determinismus (digitaler Computer) und Indeterminismus (Mensch).
Es ist umstritten, ob der Nichtdeterminismus der Quantenmechanik im Gehirn eine Rolle spielt.
Das Problem sind in der Tat eher die herkömmlichen Rechnerstrukturen (von Neumann), mit denen eine Simulation des Gehirns mittels Algorithmen einfach zu aufwändig ist. Besser geeignet sind neuromorphe Chips, wie sie z.B. beim Human Brain Project im großen Stil untersucht werden.
https://de.wikipedia.org/wiki/Neuromorpher_Chip
Es ist absehbar, dass diese bereits mittelfristig Teile des menschlichen neuronalen Systems ersetzen können (künstliche Retina...). Beim HBP sind Teile von Rattenhirnen simuliert worden (was allerdings bereits vorher mit herkömmlichen Strukturen gelang).

Zur Eingangsfrage:
Die eher abwartende Haltung in der öffentlichkeit hängt wohl vor allem damit zusammen, dass die SciFi Autoren der Vergangenheit zu optimistisch waren, was die maschinelle Intelligenz anbelangt. Die konkreten, für die Allgemeinheit greifbaren Fortschritte sind überschaubar. Daher herrscht wohl eine gewisse Desillusionierung vor, was ich aber nicht als "Unterschätzung" bezeichnen würde.
Arbeit. Leben. Zukunft.
Benutzeravatar
schokoschendrezki
Beiträge: 19263
Registriert: Mi 15. Sep 2010, 16:17
user title: wurzelloser Kosmopolit
Wohnort: Berlin
Kontaktdaten:

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von schokoschendrezki »

Perdedor hat geschrieben:(10 Aug 2017, 18:20)

Es ist umstritten, ob der Nichtdeterminismus der Quantenmechanik im Gehirn eine Rolle spielt.
Das Problem sind in der Tat eher die herkömmlichen Rechnerstrukturen (von Neumann), mit denen eine Simulation des Gehirns mittels Algorithmen einfach zu aufwändig ist. Besser geeignet sind neuromorphe Chips, wie sie z.B. beim Human Brain Project im großen Stil untersucht werden.
https://de.wikipedia.org/wiki/Neuromorpher_Chip
Es ist absehbar, dass diese bereits mittelfristig Teile des menschlichen neuronalen Systems ersetzen können (künstliche Retina...). Beim HBP sind Teile von Rattenhirnen simuliert worden (was allerdings bereits vorher mit herkömmlichen Strukturen gelang).
Ich habe keinen Zweifel daran, dass es auf der Basis von Neurochips schon in Kürze etwa künstliche Augen mitsamt künstlichen Sehzentren geben wird, die die Leistungsfähigkeit des menschlichen Seh-, Erkennungs und vor allem Zuordnungs-, Klassifikations-, Musterkennungs-Systems bei weitem übertreffen. Aber genauso wie es es fraglich ist, ob der Nichtdeterminismus der QT im Gehirn eine Rolle spielt, scheint es mir fraglich, ob Gedanken ab einer gewissen Abstraktionsstufe (ich meine wirklich Gedanken und nicht Grundemotionen wie Angst oder Freude) tatsächlich lokalisierbar, materiell eingrenzbar, neuronal zuordbar sind (selbst wenn sie realiter sein sollten). Aber vielleicht hängt ja beides sogar zusammen. Dass also - mal ganz schwammig formuliert - an den Kipp-Punkten eines deterministischen Chaos Quantenprozesse eben gerade die "Flügelschläge des Schmetterlings" sind, die den Orkan in Amerika - sprich, den endgültig kondensierten Gedanken, hervorbringen.
Ich habe nie in meinem Leben irgendein Volk oder Kollektiv geliebt ... ich liebe in der Tat nur meine Freunde und bin zu aller anderen Liebe völlig unfähig (Hannah Arendt)
Benutzeravatar
Nomen Nescio
Beiträge: 13100
Registriert: So 1. Feb 2015, 19:29

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Nomen Nescio »

schokoschendrezki hat geschrieben:(10 Aug 2017, 21:15)

scheint es mir fraglich, ob Gedanken ab einer gewissen Abstraktionsstufe (ich meine wirklich Gedanken und nicht Grundemotionen wie Angst oder Freude) tatsächlich lokalisierbar, materiell eingrenzbar, neuronal zuordbar sind (selbst wenn sie realiter sein sollten).
ja, vor einigen monaten gabs darüber ein bericht. aber, und das ist das problem, was stellen sie dar. der vergleich damals lautete »wir brauchen einen viel großeren stein von rosetta um jene sprache zu entziffern«.
was mich tröstet, ist daß in den 50 jahren - als watson und cricks die struktur des DNA-molekuls entdeckt hatten - auch gedacht wurde daß man es aber nie entziffern könnte. und um den siebziger jahre hatte man entdeckt, daß es nonsens codonen gab. und siehe mal wie weit sie jetzt sind.
nathan über mich: »er ist der unlinkste Nicht-Rechte den ich je kennengelernt habe. Ein Phänomen!«
blues über mich: »du bist ein klassischer Liberaler und das ist auch gut so.«
Benutzeravatar
Perdedor
Beiträge: 3462
Registriert: Do 5. Jun 2008, 23:08

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Perdedor »

schokoschendrezki hat geschrieben: Aber genauso wie es es fraglich ist, ob der Nichtdeterminismus der QT im Gehirn eine Rolle spielt, scheint es mir fraglich, ob Gedanken ab einer gewissen Abstraktionsstufe (ich meine wirklich Gedanken und nicht Grundemotionen wie Angst oder Freude) tatsächlich lokalisierbar, materiell eingrenzbar, neuronal zuordbar sind (selbst wenn sie realiter sein sollten).
Was heißt "zuordbar"? Gedanken sind natürlich Prozesse bei denen sehr viele Neuronen zusammenspielen. Insofern sind sie nicht an einem bestimmten Punkt lokalisierbar. Materiell eingrenzbar sind sie natürlich. Nämlich auf den menschlichen Körper.
schokoschendrezki hat geschrieben: Dass also - mal ganz schwammig formuliert - an den Kipp-Punkten eines deterministischen Chaos Quantenprozesse eben gerade die "Flügelschläge des Schmetterlings" sind, die den Orkan in Amerika - sprich, den endgültig kondensierten Gedanken, hervorbringen.
Ja, vielleicht. Aber der Clou bei dem Schmetterling ist ja gerade, dass es in diesem Beispiel keine Quantenprozesse braucht. Deterministisches Chaos ist deterministisch und lässt sich am Computer simulieren. Beim Wetterbeispiel ist das Problem, dass auf absehbare Zeit kein Computer leistungsfähig genug sein wird, die gesamte Atmosphäre zu simulieren. Das Gehirn ist im Vergleich dazu wesentlich kleiner.
Arbeit. Leben. Zukunft.
Benutzeravatar
Alter Stubentiger
Beiträge: 5419
Registriert: Fr 6. Jan 2012, 08:20
user title: Sozialdemokrat

Re: Warum die Macht von selbstlernenden Algorithmen unterschätzen?

Beitrag von Alter Stubentiger »

Perdedor hat geschrieben:(10 Aug 2017, 21:50)

Was heißt "zuordbar"? Gedanken sind natürlich Prozesse bei denen sehr viele Neuronen zusammenspielen. Insofern sind sie nicht an einem bestimmten Punkt lokalisierbar. Materiell eingrenzbar sind sie natürlich. Nämlich auf den menschlichen Körper.



Ja, vielleicht. Aber der Clou bei dem Schmetterling ist ja gerade, dass es in diesem Beispiel keine Quantenprozesse braucht. Deterministisches Chaos ist deterministisch und lässt sich am Computer simulieren. Beim Wetterbeispiel ist das Problem, dass auf absehbare Zeit kein Computer leistungsfähig genug sein wird, die gesamte Atmosphäre zu simulieren. Das Gehirn ist im Vergleich dazu wesentlich kleiner.
Es ist auf jeden Fall ein weiter Weg. Ich fühle mich in meiner Ansicht bestärkt das die Hype um die Algorithmen doch ziemlich überzogen ist. Wie eben die früheren Bestrebungen mit spezialisierten Programmiersprachen wie Lisp.
Niemand hat vor eine Mauer zu errichten (Walter Ulbricht)
...und die Mauer wird noch in 50 oder 100 Jahren stehen (Erich Honecker)
Antworten