Lieber gera,
ich denke, dass Du hier einen typisch "menschlichen Denkfehler" begehst. Wer sich ein wenig in der Mathematik auskennst kennt das Phänomen: wenn ich einen Würfel werfe, kann ich das Ergebnis nicht vorhersagen, wenn ich ihn 1000 mal werfe und den Durchschnitt errechne aber ziemlich genau - nicht der einzelne Wurf ist entscheidend (außer im Glücksspiel)!
Zu viele Daten brauchen wir nicht? Aber nur, weil wir damit letztlich nichts entscheidendes anfangen können - auswerten und zwar nicht mit einfachen Rechenoperationen., der Computer lernt eigenständiges Denken UND kann die riesigen Datenmengen nutzen. Wir sehen einen Dreisprung und glauben alles wesentliche zu erkennen, der Computer versteht tausende von Dreisprüngen und zieht seine eigenen Schlüsse - im Detail nichts revolutionäres, aber die Stichhaltigkeit ist schon gravierend!
Wir sehen z.B. in einer Superzeitlupe einzelne Bilder, erkennen Bewegungsmuster als Konsequenz aus dem vorhergehenden, der Computer kann icht nur dasselbe, sondern er kann zu jedem Bild auch die wichtigsten Daten interpretieren und interpolieren, bis auf die Kräfte in jedes Band und jeden Knochen - WENN die Datenbasis groß genug ist. Hat eine Maschine tausende solcher Vorgänge erst einmal verarbeitet ist sie dem Menschen überlegen in punkto Geschwindigkeit, Volumen, Detailgenauigkeit! Wir sind nicht etwa zu blöd dazu, wir sind schlicht nicht schnell und "rechenstark" genug. Wir brauchen Hochgeschwindigkeitskameras, Kraftmessplatten, Zugsensoren (mittlerweile Milimetergroß), starke Beleuchtung und einen Computer und könnten trotzdem nicht aus nur einem Bild heraus eine Voraussage treffen, ein Computer schon (die befinden sich allerdings noch in der Lernphase).
Unser generelller Fehler ist, dass wir uns noch immer als das letzte Glied in der Entwicklungskette sehen, das stimmt aber schon eine Weile nicht mehr und wir leben ganz gut damit ( beim Autofahren, bei finazieller Risikobewertung, bei Wettervorhersagen, bei der Flugsicherung, bei der Navigation, in der Medizinischen Versorgung und und und). Das eigenständige Denken einer KI ist nur der nächste Schritt und uns dämmert erst wie gewaltig diese Entwicklung unser Leben beeinflussen wird! Wollen wir uns in 10 Jahren noch einmal darüber unterhalten?
Ein Tipp: wenn man sehen möchte wie es "weitergeht", dann schaue man sich Jugendliche so von 13-20 Jahren an, eigenständiges Denken ist jetzt schon häufig "old school" (Sie bemühen sich nicht einmal mehr darum selbst Nachzudenken), ohne google sind viele aufgeschmissen…
Ein amerikanischer Philosoph und Neurobiologe (habe das Buch gerade verliehen, Name fällt mir gerade nicht ein - mein Zenit???) vertritt sogar den Standpunkt, dass wir unseren intellektuellen Zenit überschritten haben zu dem Zeitpunkt als wir sesshaft wurden - einfach weil viele täglich essentielle Überlebensstrategien nicht mehr gefordert und trainiert wurden. Rechenleistung verdoppelt sich nach wir vor ca. alle 24 Monate… und das obwohl wir an die physikalischen Grenzen der Minimierung gestossen sind (wir sind bei 7-9 Nanometer, da reicht kein normales Licht mehr…)
Etwas was uns zu Denken geben sollte, ist auch die Menge an neuer Information die täglich auf uns herabregnet (nicht nur in Form von über 1 Million Büchern jährlich!), man kann in der Regel nur noch in einem speziellen Teilbereich seines Fachgebietes wissenschaftlich wirklich auf der Höhe bleiben - da maße ich mir nicht an die Folgen besser als eine Maschine erkennen zu können. Einen "Universalgelehrten" kann es einfach nicht mehr geben - trotz vieler, sehr kluger Köpfe.
ich denke, dass Du hier einen typisch "menschlichen Denkfehler" begehst. Wer sich ein wenig in der Mathematik auskennst kennt das Phänomen: wenn ich einen Würfel werfe, kann ich das Ergebnis nicht vorhersagen, wenn ich ihn 1000 mal werfe und den Durchschnitt errechne aber ziemlich genau - nicht der einzelne Wurf ist entscheidend (außer im Glücksspiel)!
Zu viele Daten brauchen wir nicht? Aber nur, weil wir damit letztlich nichts entscheidendes anfangen können - auswerten und zwar nicht mit einfachen Rechenoperationen., der Computer lernt eigenständiges Denken UND kann die riesigen Datenmengen nutzen. Wir sehen einen Dreisprung und glauben alles wesentliche zu erkennen, der Computer versteht tausende von Dreisprüngen und zieht seine eigenen Schlüsse - im Detail nichts revolutionäres, aber die Stichhaltigkeit ist schon gravierend!
Wir sehen z.B. in einer Superzeitlupe einzelne Bilder, erkennen Bewegungsmuster als Konsequenz aus dem vorhergehenden, der Computer kann icht nur dasselbe, sondern er kann zu jedem Bild auch die wichtigsten Daten interpretieren und interpolieren, bis auf die Kräfte in jedes Band und jeden Knochen - WENN die Datenbasis groß genug ist. Hat eine Maschine tausende solcher Vorgänge erst einmal verarbeitet ist sie dem Menschen überlegen in punkto Geschwindigkeit, Volumen, Detailgenauigkeit! Wir sind nicht etwa zu blöd dazu, wir sind schlicht nicht schnell und "rechenstark" genug. Wir brauchen Hochgeschwindigkeitskameras, Kraftmessplatten, Zugsensoren (mittlerweile Milimetergroß), starke Beleuchtung und einen Computer und könnten trotzdem nicht aus nur einem Bild heraus eine Voraussage treffen, ein Computer schon (die befinden sich allerdings noch in der Lernphase).
Unser generelller Fehler ist, dass wir uns noch immer als das letzte Glied in der Entwicklungskette sehen, das stimmt aber schon eine Weile nicht mehr und wir leben ganz gut damit ( beim Autofahren, bei finazieller Risikobewertung, bei Wettervorhersagen, bei der Flugsicherung, bei der Navigation, in der Medizinischen Versorgung und und und). Das eigenständige Denken einer KI ist nur der nächste Schritt und uns dämmert erst wie gewaltig diese Entwicklung unser Leben beeinflussen wird! Wollen wir uns in 10 Jahren noch einmal darüber unterhalten?
Ein Tipp: wenn man sehen möchte wie es "weitergeht", dann schaue man sich Jugendliche so von 13-20 Jahren an, eigenständiges Denken ist jetzt schon häufig "old school" (Sie bemühen sich nicht einmal mehr darum selbst Nachzudenken), ohne google sind viele aufgeschmissen…
Ein amerikanischer Philosoph und Neurobiologe (habe das Buch gerade verliehen, Name fällt mir gerade nicht ein - mein Zenit???) vertritt sogar den Standpunkt, dass wir unseren intellektuellen Zenit überschritten haben zu dem Zeitpunkt als wir sesshaft wurden - einfach weil viele täglich essentielle Überlebensstrategien nicht mehr gefordert und trainiert wurden. Rechenleistung verdoppelt sich nach wir vor ca. alle 24 Monate… und das obwohl wir an die physikalischen Grenzen der Minimierung gestossen sind (wir sind bei 7-9 Nanometer, da reicht kein normales Licht mehr…)
Etwas was uns zu Denken geben sollte, ist auch die Menge an neuer Information die täglich auf uns herabregnet (nicht nur in Form von über 1 Million Büchern jährlich!), man kann in der Regel nur noch in einem speziellen Teilbereich seines Fachgebietes wissenschaftlich wirklich auf der Höhe bleiben - da maße ich mir nicht an die Folgen besser als eine Maschine erkennen zu können. Einen "Universalgelehrten" kann es einfach nicht mehr geben - trotz vieler, sehr kluger Köpfe.