ChatGPT ein AI BOT auf überraschend hohem level?

Allerdings die menschliche Verblödung steigt gefühlt,
Rein gefühlt eben, vermutlich wegen der Annahme, dann noch länger vor dem Computer/Smartphone sitzen zu müssen
ich weiß nicht..
das hat man früher schon unseren Eltern erzählt als der REchenschieber in den SChulen abgeschafft wurde und die ersten TAschenrechner kamen, dass nun alle verblöden
Man muss nicht verblöden, aber man kann: Der Mensch brauch Bewegung, und mehr PC-Jobs bedeuten eben noch weniger Bewegung.
Statt ins Lagerfeuer zu starren und zu fummeln, sitzt er eben noch mehr vor der Mattscheibe, um dann in seiner "Freizeit" mit Sport auszugleichen.
Das Ganze wird auch nur eine kleine Steigerung zu dem sein, was wir schon haben. Auch das herkömmliche Handwerk (Handarbeit) , oder auch die Bio-Landwirtschaft wird nicht aussterben, so wie auch der Mensch nicht mehr lebensfähig ist, wenn er sich zu weit von seinen Ursprüngen entfernt.
Vielleicht gibt es sogar endlich mal wieder weniger von der Stange. Der Robot scheint ja sehr flexibel zu sein, je nachdem mit welchen Daten man ihn füttert... und es liegt natürlich in der Hand seines Bedieners wozu er eingesetzt wird. Da die meisten vernünftig sind wird es wohl leider oder auch zum Glück nicht viel mehr ausmachen, als der Schritt vom Rechenschieber zum Taschenrechner.
 
Zuletzt bearbeitet:
Naja, Abgaben auf Wirtschaftsleistung (z.B. umgerechnet auf "Stundenleistung Mensch"), nicht auf die reale Personenanzahl die dort arbeitet, sowie ein Bedingungsloses Grundeinkommen und das Thema wäre durch... Aber das geht ja nicht, würden ja alle faul werden!
Das Grundproblem liegt möglicherweise eher darin, daß alle Nationen gleichzeitig an einem Strang ziehen müßten. Wenn Deine Dienstleistung rein digital ist, kannst Du ja Problemlos auf einen Server in der nächsten Steueroase umziehen. Das Faulheitsnarrativ ist glaube ich nur ein vorgeschobenes Ablenkungsmanöver.

Zur Kreativität in Sachen Kunst habe ich weiter oben Nick Cave verlinkt.
Das ist leider hinter einer Paywall. Aber da er Künstler ist, vermute ich, daß er seine Werke, wenn nicht als besser, so zumindest als menschlicher darstellt, weil sie aus seinen Emotionen hervorgegangen sind. Das ist wahr und bei allen Künstlern so. Die können nicht anders, die müssen Kunst produzieren. So funktionieren die und so werden sie immer funktionieren. Egal wieviel "KI" es gibt.

Aber...

Dem Konsumenten ist es egal, warum der Künstler das Werk geschaffen hat, der Konsument legt Wert darauf, wie das Werk auf ihn wirkt. Und somit ist es dem Konsumenten völlig egal, ob das Werk von einem Menschen, einem Schimpansen oder einem Computer kommt. Weil es neu ist, wird die nicht-menschliche Kunst zwar erstmal ihren besonderen Reiz haben, aber das dürfte spätestens dann abflauen, wenn die erste Generation damit aufgewachsen ist.

Von selbst kommt KI noch auf keine Idee. Die will immer angestuppst werden,um aktiv zu werden. Halt noch immer das Prinzip an,aus 0/1.

Das ist nicht kreativ,sondern reproduktiv.
Auch der Mensch will angestupst werden. Das nennt sich Motivation oder Inspiration. Hätte H.R. Giger keine Angst vor seinen Träumen gehabt, hätte er nie Kunst gemacht. Würden Paare sich nicht trennen, gäbe es solche Lieder nicht.
Der Computer ist dem Menschen hier sogar überlegen, weil der Computer auf Knopfdruck kreativ sein kann. Er braucht keine Inspiration. Der Mensch ist außerdem ebenfalls sehr reproduktiv. Jeder steht auf den Schultern von Giganten. Jeder wird von allem, was er vorher konsumiert hat, beeinflußt. Michael Bays berühmter Signature Shot ist eigentlich auch nicht von ihm. Es wurden schon andere Personen so inszeniert. Es ist selten, daß jemand so eigenständig wie Giger ist.

Aber zurück zur Kreativität. Der Mensch soll kreativ sein?! Ich hatte hier schon mal erklärt, wie künstliche neuronale Netze funktionieren und als Beispiel ein Netzwerk genannt, daß drei Arten von Tieren in Bildern "erkennen" kann: Hund, Katze oder Maus. Ist es ein Katzenbild, wäre der Output "Hund: 0, Katze: 1, Maus: 0".
Die generativen "KI"s lassen diese Netze "rückwärts laufen", geben also z.B. "Hund:1, Katze: 0, Maus: 0" vor, und lassen das Netz ein Hundebild halluzinieren. Im Prinzip ist das ganz grob so, wie Stable Diffusion & Co funktionieren. Das Endprodukt wird anhand der Vorgaben aus einem zufälligen Rauschen heraus erzeugt. Für das gleiche Rauschen verhält sich also auch ein rückwärts laufendes Netzwerk deterministisch und halluziniert das gleiche Ergebnis.

Was passiert nun, wenn ich als Ausgangswert "Hund: 0.5, Katze 1.2, Maus: -0.7" eingebe? Na, wo ist die menschliche Kreativität? Der Computer wird einen Output erzeugen, aber welcher Mensch kann das? Selbst nur als Vorstellung in seinem Kopf? Wer ist jetzt kreativer?

Aber, "Die Möglichkeiten des menschlichen Gehirns sind unendlich"

Wolln wa mal schaun... Ein künstliches neuronales Netz lernt, wie das menschliche Gehirn, Konzepte und deren Verknüpfung und Anwendung. Konzepte bauen aufeinander auf. Hand-Augen-Koordination sind angewandte und verknüpfte Konzepte. Multiplikation baut auf Addition auf. Auswendig gelernte Fakten sind kein Konzept. Das Herunterbeten aller Hauptstädte bringt einen nicht weiter.

Nehmen wir nun eine Person an, die 18 Stunden pro Tag 100 Jahre lang in jeder Stunde ein neues Konzept lernt. Am Ende wären das 657.000 Konzepte. Nicht wirklich viel. Und das ist schon das obere Limit der Leistungsfähigkeit des menschlichen Geistes.
Wann habt ihr das letzte neue Konzept gelernt? Ganz ehrlich? Realistisch ist ja eher eins pro Woche (im Schnitt) und daß mit 80 Jahren Schluß ist. Das macht dann 4160 Konzepte. Da muß man sich wundern, daß es überhaupt zum Atmen reicht.

Was passiert, wenn die KI eine million Konzepte gelernt hat? Hat sie dann Dinge wie Tensorrechnung und Quantendynamik schon so automatisiert ins Unterbewußtsein verschoben, so daß eine Kommunikation mit uns gar nicht mehr möglich ist? Sind wir für die KI dann auch nur Ameisen mit gefühlten zweieinhalb Hirnzellen?

Selbst unsere Primitiv-"KI" im Anfangsstadium, ganz ohne zusammengeschaltete und rückgekoppelte unterschiedliche Funktionsgruppen, wie in unseren Hirnen, zeigt uns, daß wir Menschen uns ganz gewaltig überschätzen, was die Einzigartigkeit unserer Fähigkeiten angeht.

...Mike
 
Ich empfehle zu dem Thema Max Tegmark, Leben 3.0.

Menschliches Sein wird dort letztlich als eine elektronische Interaktion verstanden, mit interessanten (und beängstigenden wie ich finde) Perspektiven für die menschliche Zivilisation.
 
Oh Gott, das ich hier im VM-Forum mal was zu KI lese, hätte ich nicht gleich erwartet :)
Ich verfolge das seit Längerem eher skeptisch, bin ich doch ein Freund von leserlichem Code, deterministischen Tests, fachlichen Schnittstellen. Wir machen da schon genug Fehler, einfach weil die reale Welt schwer digital abbildbar ist, die Prozesse erst recht. Was soll da bei KI erst rauskommen?

bei KI kommen da eine Menge zusammen, die mir wiedersprechen:
- anstatt eine Vorgabe und ein Ergebnis zu definieren, zu der ein Algorithmus zu schreiben ist (siehe oben, Freund von), wird genau dieser Teil nun durch enorme Ressourcenverschwendung, unüberblickbaren Input an Datenmengen und kaum nachvollziehbaren Ergebnissen "generiert".
Sind dann Fehler drin? "wir brauchen nur mehr Input", aber das kann dann wieder "alles" beeinflussen, auch Dinge, die schon gut genug funktionierten.
- Der Input ist statisch. ChatGPT hat nen Stand von irgendwann 2021. Fragen wie "Wann ist in Hessen das nächste Mal Landtagswahl?" kann es nicht. Selbst zum Nachgucken ist es da noch zu doof, Quellen gibt es sicher genug. Es fehlt nach wie vor an elementaren Dingen.
- Generierte Texte entwickeln sich nicht weiter - die klingen zwar schon recht gut, aber auch Sprache entwickelt sich weiter, optimiert sich, es entstehen neue Worte (sus!), neue Bedeutungen ("Zeitenwende"), das kann die prinzipbedingt nicht erkennen.
- Es ist sehr oft nicht erkennbar wann die KI die "Wahrheit" sagt (nach ihren "besten" Fähigkeiten), oder wann sie das nicht tut. Teils ist es offensichtlich, also sie antwortet direkt mit "kann ich nicht" (schön formuliert), aber "Was ist ein Milan GT" klingt fachmännisch, ist aber totaler Humbug, 2-Sitzer, 100kg, 45km/h...
- Solange es noch Menschen gibt die wenigstens versuchen selbst zu programmieren ist sehr viel einfacher erkennbar was das Programm leisten kann, KI ist auch sehr leicht zu "verschmutzen" mit den eh kaum zu überblickenden Daten, und selbst ohne bleibt es oft ein Rätsel welche Eckfälle da mal so zu extrem überraschende Ergebnissen führen.

Es lohnt sich nach "KI Fails" zu suchen, was die "KI" da teilweise leistet um an eine schnelle "Lösung" zu kommen ist schon bemerkenswert...

KI halte ich noch immer für einen Hype, der auch dem Planeten ziemlich schadet.

Nett zusammengefasst hast das "fefe" mal, der ganze Vortrag ist interessant, aber hat mehrere Teile, hier zu KI/Machine Learning: https://ptrace.fefe.de/hype/#38
 
dann können "KI"s bessere Geschichten schreiben. Versuche haben gezeigt, daß aus Regalen mit Bestsellerautoren und No-Name Autoren gleich viel gekauft wird.
Wenn ich mir die Geschichten hier so anschaue, wage ich das zu bezweifeln.
Die Geschichten klingen solange nett, wie man selber nicht anfängt zu denken.
Warum bringt das Erreichen des Dorfrandes den Probanden in Sicherheit?

Und die Tatsache, daß Bestsellerautoren gleichhäufig gekauft werden wie No-Name-Autoren ist wohl auch eher dem geschuldet, wie wir Bestseller-Autoren definieren.
Oder dem, daß Bestseller öfter bestellt werden, während die Kunden im
Buchladen sich noch selber (und evtl auch einfacher) einen Überblick über die verschiedenen Bücher verschaffen.

Ich denke, es gibt Anwendungsfälle, in denen (eine gut trainierte) KI den Menschen entlasten kann, aber bis sie wirklich dasselbe oder sogar mehr leisten kann als ein Mensch (nämlich nicht nur eine ganz spezielle Aufgabe zu lösen, ohne über den Tellerrand zu schauen), das wird noch seeeehr lange dauern.
 
je mehr KI generierte Texte im Netz stehen werden, erweitert sich die KI selbst ihre Lernbasis für die nächste KI-Generation. Super! Gefangen in einer Endlosschleife die irgendwann wohl nichts sinnvoll neues mehr erstellt. Die Menge an kreativen neuen (menschlichen) Input wird immer geringer werden. Dann hat der Mensch wieder eine Chance sein Verständnis der Dinge zu nutzen. Kritisches Reflektieren wird die KI wohl nicht so schnell können.

Diese Chatbots werden werden sicher das Netz verändern, in Teilen zum Schlechten, in Teilen zum Besseren. Kreativer Einsatz ist gefragt ;)
 
Der Mensch widerkäut normalerweise auch nur. Und er überschätzt seine Kreativität, sowie seinen "freien Willen".
 
Wohl gesprochen. So mancher Gesprächspartner klingt auch nur wie schlechte AI.

:unsure: Wobei ... die AI kennt zumindest Wikipedia "auswendig" und filtert Verschwörungstheorien raus, weil leicht erkennbar.
 
mir scheint - völliger Laie, hab da nichts näher dazu gelesen - dass "KI" heute, auch die Modernen, viel über "Brute-Force" macht

so wie Schachprogramme früher Menschen nicht durch "Genialität" besiegt haben, sondern durch reine REchenpower, indem 100.000sende (oder Millionen ?) Züge im Voraus berechnet wurden
heute werden den KIs zur Mustererkennung 100.000 Bilder einer Katze gezeigt, und dann kann das Teil recht zuverlässig Katzen erkennen

der Mensch funktioniert da doch noch anders..
man zeigt einem Kleinkind 5 verschiedene Bilder von Katzen und ab dann kann es recht zuverlässig Katzen identifizieren, selbst wenn diese stilisiert nur gezeichnet werden

ist hier KI/MUstererkennung schon so weit? ich denke nicht.. ich höhere immer von den riesen Datenmengen die zum Lernen benötigt werden

siehe z.b. selbstfahrende Autos: noch machts der Mensch meist besser - dafür reichen paar wenige 1000km Fahrerfahrung aus
Tesla Autopilot soll auf viele Millionen km an Fahrdaten fürs Lernen zurückgreifen können - und doch schafft er es noch nicht mit einem Mensch in Summe mitzuhalten
 
Ich mache mir mehr Sorgen, dass ab einem gewissen Niveau die Aussagen bzw. Urteile von KI - Systemen vorbehaltlos akzeptiert und denen von Menschen vorgezogen werden, selbst wenn niemand sagen kann, wie die KI zu ihrem Ergebnis gelangt ist.
Ich erinnere mich da an eine Sendung - ich meine, es wäre in der Arte - Mediathek gewesen - in der neben vielen positiven Aspekten auch von zwei Fehlschlägen berichtet wurde:

a) Die USA hatten eine KI mit tausenden Fotos von getarnten Panzern im Gelände trainiert, um im Ernstfall die Freund - Feinderkennung via KI durchführen zu können. Im Manöver mit realen Panzern versagte das System kläglich. Nach langer Analyse kam heraus, dass auf den Trainingsfotos die US - Panzer zufällig fast immer bei Sonnenschein, die feindlichen Panzer aber fast immer bei trübem Wetter aufgenommen worden waren. Die KI hatte also nur "gelernt": Sonne = Freund, schlechtes Wetter = Feind.

b) Bei der Tumorerkennung auf Röntgen / MRT / Ultraschall - Bildern gab es eine ähnliche "Pleite". Leider erinnere ich mich nicht mehr daran, welchen trivialen Faktor hier die KI bevorzugt zur Bewertung hinzugezogen hatte. Jedenfalls war hier in den Trainingsfotos irgendetwas gewesen, was von der schon erfolgten menschlichen Auswertung stammte, denn die Trainingsbilder stammten ja von Patienten, deren Befunde schon durch eine OP bestätigt oder wiederlegt worden waren.

Natürlich wurden die Fehler in beiden Fällen korrigiert. Es zeigt aber, wie schnell das Vertrauen in eine KI in die Irre führen kann.
 
man zeigt einem Kleinkind 5 verschiedene Bilder von Katzen und ab dann kann es recht zuverlässig Katzen identifizieren, selbst wenn diese stilisiert nur gezeichnet werden
Das ist korrekt, jedoch sind die Ausgangsbedingungen sehr unterschiedlich. die heutigen "KI"-Systeme bestehen aus nur einer Funktionsgruppe - in diesem Beispiel Bilderkennung. Aber die Bezeichnung ist irreführend, denn es ist keine Bilderkennung, denn das Netz kennt, im Gegensatz zum Kind, nichts.

Per überwachtem lernen bringt man das Netz dazu, bei dem ungefähren Auftreten bestimmter Muster in Datenströmen ein Signal auszugeben. Das und nur das tut das Netz, ohne zu wissen, daß es das tut, was es wirklich tut oder warum. Daß diese Datenströme Bildsignale waren, davon hat das Netz keine Ahnung und schon gar nicht, daß sie eine Katze enthielten. Es weiß nicht, was eine Katze ist, es weiß nicht was ein Tier ist, es weiß nicht was ein Bild ist. Es hat überhaupt keinen Kontext, in den es das, was es tut, einordnen kann. Und wenn man entscheidet, daß das Netz ausgelernt hat, wird es auch nichts mehr dazulernen.

Das Kind hingegen hat ein Gehirn mit vielen unterschiedlichen Funktionsgruppen, die alle miteinander kommunizieren und eine Art Realitätssimulation bilden. Hier sind u.a. Bedeutungen von Objekten hinterlegt. Außerdem lernt das Kind andauernd dazu. Was sind Tiere, was sind Menschen, wie sehen diese üblicherweise aus und wie verhalten sie sich? Wenn das Kind in der Lage ist, zu kommunizieren, daß es eine Katze erkannt hat, ist seine Realitätssimulation schon sehr weit entwickelt. Es hat sehr viel Kontext angehäuft, welcher das lernen einfacher, schneller und sicherer macht.

Unsere künstlichen neuronalen Netze sind da noch lange nicht. Soll heißen, daß wir Menschen noch nicht in der Lage sind, solche Modelle zu konstruieren. Das steckt alles noch sehr in den Kinderschuhen. Hey, im Prinzip funktioniert das alles erst seit 2010 halbwegs vernünftig. Da ist noch gar nichts ausgereift. Aber dafür funktioniert es schon überraschend/beklemmend gut.

Daß die 1000km Fahrerfahrung eines Menschen ausreichen ist logisch, da er 18 Jahre lang fast rund um die Uhr gelernt hat, sensorischen Input entsprechend zu verarbeiten. Das Erkennen und Bewerten von Objekten ist durch die jahrelange Erfahrung soweit automatisiert, daß Autofahren als zusätzliche Tätigkeit bewältigt werden kann. Tesla läßt Säuglinge fahren, die auch nichts mehr dazulernen (außer durch ein Update).

Angelernt werden diese künstlichen neuronalen Netze u.a. auch mit Captchas. Wenn man schon Aufgaben lösen muß, um zu beweisen, daß man kein Bot ist, kann man sich das doch auch zunutze machen, dachten sich Google & Co.
Zuerst bekam man verzerrten Text gezeigt, den man korrekt eingeben mußte. Damit wurden Schrifterkennungen trainiert, u.a. Google Books. Später mußte man halb verdeckte oder kaum leserliche Hausnummern eingeben, das hat Google StreetView dabei geholfen, seinen Straßenindex aufzubauen. Jetzt heißt es "klicken Sie auf alle Bilder, die Busse enthalten". Oder Ampeln, oder sonstwas aus dem Straßenverkehr. Dreimal darf man raten, was nun damit trainiert wird. Und da die meisten probieren, das richtige zu tun, funktioniert das wunderbar.

SarahConnorCaptcha.jpg
:LOL:

...Mike
 
Ich hab das nun mal getestet. Also bis ich überflüssig werde, dauert es noch ein bisschen. Aber sehr kreativ, hat gerade die Chemie neu erfunden.
 
Die 30 Jahre von 2015 nach 1985 hingegen kämen schon fast einem Kulturschock gleich. Allein: kein Internet, keine Handies, keine Computer.
Um den Schock der 30 Jahre von 2015 bis 1985 zu wiederholen, müßte man wie weit zurück? 1900? Und dann? 1700? Und dann? Dann muß man zurück, bevor die Menschen Sesshaft wurden.

Für mich, der ich 1985 volljährig war, ist das kein Schock.

– Mobiltelefon: liegt meist zu Hause, wenn ich unterwegs bin, wird von mir im Grunde wie ein Festanschluß genutzt.

– Computer: bleibt auch zu Hause, brauche ich unterwegs nicht; meist nutze ich ihn, wie ich früher eine Schreibmaschine genutzt habe.

– Internet: hat mir bei den schwierigsten Problemen nicht geholfen.

Daß es einmal künstliche Intelligenz geben wird, bezweifle ich: wie soll der Mensch etwas nachbauen, was er nicht beschreiben kann, nicht begreift?
 
Du meinst Du ignorierst standhaft 40 Jahre technischen Fortschritt?

Es hat eine Weile gebraucht meine Schwiegermutter davon zu überzeugen das Handy nach dem telefonieren nicht gleich wieder aus zu machen. Heute ist sie Fan von Whatsapp. Wahrscheinlich muss man erst 80 werden um geistig flexibel zu werden.
 
Autos werden auch immer "intelligenter".
Aber die Summe der Intelligenz von Fahrer und Fahrzeug bleibt angeblich konstant...

;) , Harald
 
Für mich, der ich 1985 volljährig war, ist das kein Schock.
Zugegeben, ein Schock wäre es für mich auch nicht (selbst wenn es mir die Lebensgriundlage nimmt). Ich meinte damit aber auch nicht uns alte Leute, die wissen, daß und vor allem wie man ohne die neuen Technologien leben kann.

Den echten Schock erleben die Marty McFlys, die Teenager, die dadurch grundlegende Lebensrealitäten verlieren würden. Für Dich und mich ist das Internet ein Ding, in das man hinein- und wieder hinausgeht. Unfassbar nützlich, aber mehr auch nicht. Für die Generation, die damit aufgewachsen ist, ist es (ganz wertfrei gesprochen) eine Erweiterung der Persönlichkeit. Das merkt man, wenn man das weggenommen bekommt!

Daß es einmal künstliche Intelligenz geben wird, bezweifle ich: wie soll der Mensch etwas nachbauen, was er nicht beschreiben kann, nicht begreift?
Was Du meinst ist nicht Intelligenz sondern Bewußtsein. Allerdings ist beides schon verstanden. Basierend hierauf
Dein Gehirn simuliert eine Person mit Deinem Wissen und Deinen Erfahrungen und wählt für jede Situation daraufhin die bestgeeignete Handlung aus. Und sollte das ein kluger Spruch sein, bekommt die simulierte Person Zugriff auf Dein Sprachzentrum und läßt Deinen Körper reden. Du bist also die Geschichte, die sich Dein Gehirn erzählt, denn Hardware kann nicht fühlen, nur eine Simulation kann das. Wir nennen das dann Bewußtsein.
hatte ich das in einem Folgebeitrag einmal grob zusammengefasst. Das harte Fazit daraus lautet leider, daß eigentlich niemand ein "echtes" Bewußtsein hat, so wie wir uns das wünschen", und wir das nur als solches empfinden, weil unsere Realitäts- und Ich-Simulationen mittlerweile automatisiert im Unterbewußtsein ablaufen. Und so ein philosophischer Zombie läßt sich prima nachbauen - ist bloß noch ein wenig zu komplex, wir brauchen noch etwas Zeit.

Dabei ist ein Bewußtsein zur Problemlösung überhaupt nicht notwendig.

KI der 1. Generation: Ein implementierter Algorithmus, der das Problem löst.
Beispiel: Eine Handyapp, die Vogelarten in Fotos benennen kann.

KI der 2. Generation: Ein implementierter Algorithmus, der einen Algorithmus findet, der das Problem löst.
Beispiel: AlphaGo, das allein Go spielen gelernt hat und selbständig Strategien entwickelt hat, auf die selbst Großmeister noch nie gekommen sind.

KI der 3. Generation: Ein implementierter Algorithmus, der einen Algorithmus findet, um einen Algorithmus zu finden, der das Problem löst.
Beispiel: Gibt es noch nicht. Aber diese zusätzliche Abstraktionsebene macht das System zum ersten Mal Problemunabhängig!

Sowie wir mehrere Funktionseinheiten zusammenschalten können, um den ganzen gespeicherten Informationen Kontext (Bedeutung) zu geben, wird sich die Lerngeschwindigkeit um mehrere Größenordnungen erhöhen, siehe Kraeuterbutters Katzenbeispiel, ein paar Beiträge weiter oben.

Der Mensch unterscheidet sich seeehr viel weniger vom Tier, als wir das gerne wahr haben möchten. Etliche Tiere erkennen sich selbst im Spiegel, was bedeutet, daß deren Realitätssimulation das Konzept Ich beinhaltet. Wir unterscheiden uns nun ausschließlich dadurch, daß wir geraaade genug kognitive Leistung haben, um dieses Konzept Ich dauerhaft anzuwenden und zu automatisieren. Daß es zu viel mehr nicht reicht, sieht man am Verhalten der Spezies Mensch an sich.

Dennoch, wir sind das Resultat von 14 Milliarden Jahren kosmischer Entwicklung, ein thermodynamisches Wunder und das fleischgewordene Universum, das über sich selbst nachdenkt. Wäre schön, wenn das mehr gewürdigt würde. Trotzdem ist das ganze keine dolle Leistung, wenn man sich die Machine-Learning Entwicklungen der letzten zehn Jahre anschaut. Auch dessen sollten sich mehr Leute bewußt sein. Und beides gleichzeitig, bitte.

...Mike
 
Zurück
Oben Unten