ChatGPT ein AI BOT auf überraschend hohem level?

20 Millionen Bäume mit zwei Personen in 28 Jahren macht etwa 41 Bäume pro Stunde für jeden.
Jeden Tag, 24 Stunden lang.
Glaube ich irgendwie nicht...
Die haben ja auch viele Angestellten, und Samen zu verteilen geht schnell. Es gibt da so eine "Regenwaldmischung, die muss man nur aussäen. Wichtiger war es, das Land zu kaufen, um darauf Bäume zu pflanzen. Das Projekt zeigte, dass man Regenwald durchaus wiederaufforsten kann, wenn man denn will.

Aber wir entfernen und zu weit vom eigentlichen Thema, auch denn der Ressiurcenverbrauch der Rechner und der KI ganz sicher ein ernstes Thema ist
 
denn der Ressiurcenverbrauch der Rechner und der KI ganz sicher ein ernstes Thema ist
Der wird sich bessern. Google hat gestern bekannt gegeben, dass deren neues Modell ansatzweise so gut wie DeepSeek ist, aber dies nur mit einer NVIDIA H100 GPU statt derer 32 wie bei DeepSeek.
 
Spanien ist ja nicht wegen des Klimas kahl, sondern wegen der Menschen.
Soweit ich das aus den 90ern richtig in Erinnerung habe, hat man ab der Mitte der 80er Jahre mangels junger und noch arbeitsfähiger und -williger Landbevölkerung "vergessen", die Korkeichen zu schälen, weshalb sie massenhaft kaputtgeplatzt sind. In den 90er Jahren gab es dann aufgrund des Korkmangels irre hohe Korkpreise, so dass man die verbliebenen Bäume viel häufiger als alle sieben Jahre geschält hat, woraufhin diese dann auch noch starben.
 
In NRW planen Sie gerade die Leitungen vom Rhein zum Braunkohletagebau [...] riesige Seen [...]
Man hat da umgedacht.

Bald wird das Rheinwasser in Pipelines zurück in die Alpen gepumpt und dort über den Gletschern mit Schneekanonen versprüht, damit diese nicht weiter schrumpfen und die Wassermenge des Rheins nicht sinkt.

Die dafür notwendige Energie gewinnt man aus den Laufwasserkraftwerken am Rhein, die Dank dieser Maßnahme auch in Zukunft genug Strom liefern.

Die hunterte Meter tiefen Tagebaulöcher befüllt man mit Müll, der in die Räder der einstigen Braunkohlebagger getan wird und diese rückwärts drehen lässt. Sie wirken dann als Generatoren und erzeugen soviel Energie, wie man damals zum Fördern der Braunkohle brauchte.

Mit dem gewonnenen Strom macht man H2 und hydriert damit aus der Atmosphäre aufgefangenes, sequestriertes CO2 so lange auf, bis man eine moorige Ölmatschbrühe hat. Die Matsche verrührt man mit AA, Pipi und Stroh. Dann deckt man sie mit dem Abraum aus dem Tagebau zu. In einem anaeroben Prozess entsteht dann ähnlich wie bei der Entstehung von Terra Preta neue Braunkohle, die man in 150 Jahren erneut ernten kann.
 
KI-Halluzinationen: von harmlosen Fehlern bis zu verleumderischen Lügen. Der rasante Aufstieg von KI-Chatbots wie ChatGPT wurde von kritischen Stimmen begleitet, die unter anderem auch vor sachlich inkorrekten Ergebnissen warnten. Der Grund dafür: Diese KI-Systeme sagen lediglich das nächstwahrscheinlichste Wort als Antwort auf eine Eingabe voraus. KI-Systeme halluzinieren deshalb regelmäßig, heißt, sie denken sich einfach Geschichten aus. Während dies in einigen Fällen recht harmlos oder sogar amüsant sein mag, kann es auch katastrophale Folgen für das Leben von Menschen haben. Es gibt zahlreiche Medienberichte über erfundene sexuelle Belästigungsskandale, falsche Bestechungsvorwürfe und angeblichen Kindesmissbrauch – was bereits zu Klagen gegen OpenAI geführt hat. OpenAI reagierte mit einem kleinen Haftungsausschluss, laut dem es zu falschen Ergebnissen kommen kann.

Joakim Söderberg, Datenschutzjurist bei noyb: “Die DSGVO ist hier unmissverständlich. Persönliche Daten müssen korrekt sein. Und wenn dies nicht der Fall ist, haben Nutzer:innen das Recht, sie richtigstellen zu lassen. Es reicht nicht aus, ChatGPT-Nutzer:innen einen winzigen Hinweis anzuzeigen, dass der Chatbot Fehler machen kann.”

ChatGPT schuf falschen Mörder und falsche Inhaftierung. Leider gehören solche Vorfälle nicht der Vergangenheit an. Als der norwegische Nutzer Arve Hjalmar Holmen herausfinden wollte, ob ChatGPT Informationen über ihn hat, wurde er mit einer erfundenen Horrorgeschichte konfrontiert: ChatGPT stellte den Beschwerdeführer als verurteilten Verbrecher dar, der zwei seiner Kinder ermordet und versucht hat, auch seinen dritten Sohn zu ermorden. Zu allem Überfluss enthielt die erfundene Geschichte auch reale Elemente aus seinem Privatleben. Dazu gehörten die tatsächliche Anzahl und das Geschlecht seiner Kinder sowie der Name seiner Heimatstadt. Darüber hinaus erklärte ChatGPT auch, dass der Benutzer zu 21 Jahren Gefängnis verurteilt wurde. Angesichts der Vermischung von eindeutig identifizierbaren persönlichen Daten und falschen Informationen stellt dies zweifellos einen Verstoß gegen die DSGVO dar. Gemäß Artikel 5(1)(d) müssen Unternehmen sicherstellen, dass die von ihnen erstellten persönlichen Daten korrekt sind.
chatgpt_wrong_output.png

Potenziell weitreichende Konsequenzen. OpenAI scheint leider weder daran interessiert noch in der Lage zu sein, falsche Informationen in ChatGPT zu korrigieren. noyb hat deshalb schon im April 2024 die erste Beschwerde im Zusammenhang mit Halluzinationen eingereicht. Damals beantragten wir die Berichtigung oder Löschung des falschen Geburtsdatums einer Person des öffentlichen Lebens. OpenAI argumentierte damals, es könne keine Daten korrigieren, sondern nur nur bei bestimmten Prompts „sperren”. Aber die falschen Informationen bleiben trotzdem im System. Der angerichtete Schaden mag zwar geringer sein, wenn falsche Daten nicht weitergegeben werden, die DSGVO gilt aber auch für interne Daten. Außerdem versucht das Unternehmen seine Verpflichtungen zur Datenrichtigkeit zu umgehen, indem es User:innen einen Haftungsausschluss anzeigt, laut dem das Tool „Fehler machen” kann‚ und dass sie “wichtige Informationen” überprüfen sollten. Die gesetzlichen Verpflichtungen zur Datenrichtigkeit lassen sich aber nicht mit einem Haftungsausschluss umgehen.
 
On Wednesday, web infrastructure provider Cloudflare announced a new feature called "AI Labyrinth" that aims to combat unauthorized AI data scraping by serving fake AI-generated content to bots. The tool will attempt to thwart AI companies that crawl websites without permission to collect training data for large language models that power AI assistants like ChatGPT.
Instead of simply blocking bots, Cloudflare's new system lures them into a "maze" of realistic-looking but irrelevant pages, wasting the crawler's computing resources. The approach is a notable shift from the standard block-and-defend strategy used by most website protection services. Cloudflare says blocking bots sometimes backfires because it alerts the crawler's operators that they've been detected.
 
Software developer Xe Iaso reached a breaking point earlier this year when aggressive AI crawler traffic from Amazon overwhelmed their Git repository service, repeatedly causing instability and downtime. Despite configuring standard defensive measures—adjusting robots.txt, blocking known crawler user-agents, and filtering suspicious traffic—Iaso found that AI crawlers continued evading all attempts to stop them, spoofing user-agents and cycling through residential IP addresses as proxies.
Desperate for a solution, Iaso eventually resorted to moving their server behind a VPN and creating "Anubis," a custom-built proof-of-work challenge system that forces web browsers to solve computational puzzles before accessing the site. "It's futile to block AI crawler bots because they lie, change their user agent, use residential IP addresses as proxies, and more," Iaso wrote in a blog post titled "a desperate cry for help." "I don't want to have to close off my Gitea server to the public, but I will if I have to."
Iaso's story highlights a broader crisis rapidly spreading across the open source community, as what appear to be aggressive AI crawlers increasingly overload community-maintained infrastructure, causing what amounts to persistent distributed denial-of-service (DDoS) attacks on vital public resources. According to a comprehensive recent report from LibreNews, some open source projects now see as much as 97 percent of their traffic originating from AI companies' bots, dramatically increasing bandwidth costs, service instability, and burdening already stretched-thin maintainers.
Kevin Fenzi, a member of the Fedora Pagure project's sysadmin team, reported on his blog that the project had to block all traffic from Brazil after repeated attempts to mitigate bot traffic failed. GNOME GitLab implemented Iaso's "Anubis" system, requiring browsers to solve computational puzzles before accessing content. GNOME sysadmin Bart Piotrowski shared on Mastodon that only about 3.2 percent of requests (2,690 out of 84,056) passed their challenge system, suggesting the vast majority of traffic was automated. KDE's GitLab infrastructure was temporarily knocked offline by crawler traffic originating from Alibaba IP ranges, according to LibreNews, citing a KDE Development chat.
The situation isn't exactly new. In December, Dennis Schubert, who maintains infrastructure for the Diaspora social network, described the situation as "literally a DDoS on the entire internet" after discovering that AI companies accounted for 70 percent of all web requests to their services.

The costs are both technical and financial. The Read the Docs project reported that blocking AI crawlers immediately decreased their traffic by 75 percent, going from 800GB per day to 200GB per day. This change saved the project approximately $1,500 per month in bandwidth costs, according to their blog post "AI crawlers need to be more respectful."
As one Hacker News user put it, AI firms are operating from a position that "goodwill is irrelevant" with their "$100bn pile of capital." The discussions depict a battle between smaller AI startups that have worked collaboratively with affected projects and larger corporations that have been unresponsive despite allegedly forcing thousands of dollars in bandwidth costs on open source project maintainers.
As it currently stands, both the rapid growth of AI-generated content overwhelming online spaces and aggressive web-crawling practices by AI firms threaten the sustainability of essential online resources. The current approach taken by some large AI companies—extracting vast amounts of data from open-source projects without clear consent or compensation—risks severely damaging the very digital ecosystem on which these AI models depend.
 
Boah, wo fange ich an, wo höre ich auf?
Dass ein Computer thermodynamisch betrachtet eine Heizplatte ist, ist vermutlich allgemein bekannt, jeder Computer immer und überall macht aus Strom auf der großen Skala ausschließlich Wärme.
eigentlich interessant.. Computer macht 100% Wärme..

die "Arbeit" die er durch den "Denkprozess" verrichtet ist somit eigentlich "kostenlos"
 
20 Millionen Bäume mit zwei Personen in 28 Jahren macht etwa 41 Bäume pro Stunde für jeden.
Jeden Tag, 24 Stunden lang.
Glaube ich irgendwie nicht...
was ich hier wiederum interessant finde:

scheinbar sind nicht die klimatischen Bedingungen oder WAssermangel etc. schuld daran, dass dort nix wächst..
sondern einfach nur, dass niemand nen Samen in die Erde gesteckt hat ? (oder Setzling)

ist das wirklich so einfach ?
 
was ich hier wiederum interessant finde:

scheinbar sind nicht die klimatischen Bedingungen oder WAssermangel etc. schuld daran, dass dort nix wächst..
sondern einfach nur, dass niemand nen Samen in die Erde gesteckt hat ? (oder Setzling)

ist das wirklich so einfach ?
Les noch mal den Text aus dem Screenshot:
Sebastião und Lélia Salgado haben 1.500 Hektar Land in Aimores, Minas Gerais, mit 290 Arten wiederhergestellt. Seit 1998 haben sie ein von Überausbeutung verwüstetes Gebiet in eine lebendige grüne Oase verwandelt, heute ein Parades der Artenvielfalt.

20 Millionen Bäume mit zwei Personen in 28 Jahren macht etwa 41 Bäume pro Stunde für jeden.
Jeden Tag, 24 Stunden lang.
Glaube ich irgendwie nicht...
Du glaubst, ein international bekannter Top-Fotograf (Sygma, Gamma, Magnum) der seit den späten 70ern beruflich monatelang pro Jahr in der Welt herumreist, hat keine Angestellten die auf seiner Farm Sämlinge in die Erde stopfen?

Sebastiao Salgado ist nicht irgendein Knippser. Es ist nicht ungewöhnlich wenn er unter den Top 10 der weltweit bekanntesten/einflußreichsten Fotografen gelistet wird.
 
Zuletzt bearbeitet:
20 Millionen Bäume mit zwei Personen in 28 Jahren macht etwa 41 Bäume pro Stunde für jeden.
Jeden Tag, 24 Stunden lang.
Glaube ich irgendwie nicht...

Google liefert auch seriösere Berichte über die Salgados als den Facebook-Screenshot. Demnach haben sie eine Institution gegründet, die mit zahlreichen Helfern bisher 2,7 Millionen Bäume auf 600 Hektar (Stand 2021) gepflanzt hat.

scheinbar sind nicht die klimatischen Bedingungen oder WAssermangel etc. schuld daran, dass dort nix wächst..
sondern einfach nur, dass niemand nen Samen in die Erde gesteckt hat ? (oder Setzling)

ist das wirklich so einfach ?

Natürlich ist es nicht ganz so einfach. Ein intakter Wald speichert z.B. das Regenwasser das ohne Wald ungenutzt abfließt, beeinflusst das Lokalklima etc.

Edit:
Hier gibts z.B. was zu lesen.

Schleichwerbung: Bei uns gibts auch interessante Waldschutzprojekte mit Freiwilligen.


Langsam entfernen wir uns aber vom Threadthema.
 
Zuletzt bearbeitet:
Natürlich ist es nicht ganz so einfach. Ein intakter Wald
das meine ich..
wenn so ne Fläche Jahrzehnte oder länger ohne Schutz daliegt, geht ja auch Humus etc. durch Erosion verloren..

ich dachte da auch an den Grünen Gürtel in der Sahara, der ja beeindruckende Ausmaße bereits angenommen haben soll
(aber noch weit weg von den ursprünglichen Zielen ist)
 
Ich hasse Content den das LLM auskotzt und der dann aus Websites landet, die mir die Google Suche anbietet:

"Buchweizen ist ein nahrhaftes Getreide mit hohem Protein- und Ballaststoffgehalt. Es ist jedoch auch relativ reich an Phosphor. Das bedeutet, dass Ihre Hühner möglicherweise nicht genügend Kalzium erhalten, wenn sie viel Buchweizen fressen. Dies kann später zu gesundheitlichen Problemen führen. Daher ist es wichtig, die Ernährung des Hundes mit Kalzium zu ergänzen, wenn er viel Buchweizen isst."
 
Wenn ich das hier lese, wird mir Angst und Bange. Wir sind gerade erst am Anfang und die risigen Rechner werden erst noch aufgebaut. Was bnraut sich da zusammen.

 
Was bnraut sich da zusammen.
Eine Mülllawine, die über die ziemlich unvorbereitete Menschheit hereinbricht.
Wenn die verschiedenen Instanzen voneinander abschreiben, also vermutlich bereits jetzt, brauchen wir tatsächlich ein Institut für vergleichende Irrelevanz.

Edit: Nachdem ich den Artikel zu Ende gelesen habe: Nee, da kommt noch mehr. :( Es geht darin ja nicht so sehr um generierte Inhalte, sondern um Reasoning- Modelle.
 
Zuletzt bearbeitet:
ein Institut für vergleichende Irrelevanz.
Das ist das Problem. Es kann nur zusammengeführt werden,was vorhanden ist. Neu ist nichts,nur Zusammenhänge werden sichtbar. Was natürlich neue Erkenntnisse bringen kann,aber die Bewertung sehe ich noch nicht durch die KI. Sie wird Fluch aber auch segen sein. Entscheidend ist was die Menschheit damit macht. So wie beim Internet. Fluch und Segen. Durch KI werden natürlich auch die feuchten Träume aller Konservativen wahr,die mit Palantir, wofür der Bundesrat sich gerade einsetzt Deutschland in Richtung Chinesische Überwachung zu lenken versucht.Es ist aber auch ein großes Feld offen,in der Medizin unglaublich schnelle Fortschritte zu erzielen. Es liegt an uns, dagegen zu stehen die Technik zu missbrauchen. Hier sehe ich aber allerdings schwarz für Deutschland. Das wird die Olliegarchen in den USA freuen,die die Demokratie gerade abwickeln und Unmengen in die Technik pumpen und natürlich zeitnah Profite sehen wollen. Aber ich glaube, Deutschland schläft als Gesellschaft lieber noch fester bei diesem Thema,als es das bei der Umwelt eh schon tut. KI ist nicht grundsätzlich scheiße. Scheiße sind und bleiben wir,wie wir diese Technik benutzen . Nicht die Technik wird uns beherrschen und bestimmen wo es lang geht, sondern die, denen wir den Raum für Missbrauch überlassen. Es liegt an der Gesellschaft,was sie zulässt, nicht die Technik.
 
Zurück
Oben Unten