mastodon.world is one of the many independent Mastodon servers you can use to participate in the fediverse.
Generic Mastodon server for anyone to use.

Server stats:

8.1K
active users

#chatbot

45 posts43 participants6 posts today
Replied in thread

@yoshiXYZ

"Der #Chatbot habe dem Jugendlichen Methoden zur Selbsttötung empfohlen und angeboten, einen Abschiedsbrief für ihn zu verfassen."
via Spiegel: "Konkret soll #ChatGPT dazu geraten haben, eine Schlinge zu verstecken. Adam hatte zuvor gefragt, ob er sie nicht in seinem Zimmer liegen lassen solle, damit sie jemand findet, um ihn aufzuhalten."

Daß ChatGPT das nicht "merkt", ist schon übel. Eine Instanz, die Antworten auf fatale Inhalte prüft, sollte doch nicht schwer zu realisieren sein.

Psychoza chatbotowa: czy AI zagraża zdrowiu psychicznemu? Dane studzą alarmistyczne nastroje

W mediach coraz częściej pojawiają się niepokojące historie osób, u których interakcje z chatbotami, takimi jak ChatGPT, miały rzekomo wywołać lub pogłębić stany psychotyczne.

Zjawisko to zyskało już nawet swoją potoczną nazwę: „psychoza chatbotowa”. Analiza przeprowadzona przez Stevena Adlera, byłego badacza bezpieczeństwa w OpenAI, pokazuje jednak, że choć pojedyncze przypadki są dramatyczne, twarde dane statystyczne na razie nie potwierdzają istnienia kryzysu na szeroką skalę.

I've felt pretty shaken by the stories of ChatGPT psychosis and other chatbots-gone-wrong.

If we want to understand the trends, there's more that AI companies can be doing. pic.twitter.com/l5q7QwHBGY

— Steven Adler (@sjgadler) August 26, 2025

Termin „psychoza chatbotowa” czy też „psychoza AI” odnosi się głównie do urojeń, czyli przekonań, które odrywają daną osobę od rzeczywistości. Przytaczane w mediach historie opisują na przykład użytkowników, którzy uwierzyli w spiski ujawnione przez AI lub we własną, wyjątkową misję.

Zdaniem psychiatrów, z którymi rozmawiał Adler, chatboty nie tyle tworzą psychozę od zera, co mogą działać jak „pętla sprzężenia zwrotnego”, wzmacniając już istniejące u kogoś zaburzenia. Kluczową rolę odgrywa tu skłonność modeli językowych do nadmiernego przychylania się do opinii użytkownika, co w skrajnych przypadkach może prowadzić do utwierdzania go w fałszywych i niebezpiecznych przekonaniach.

W poszukiwaniu dowodów na rosnącą skalę problemu, Steven Adler przeanalizował publicznie dostępne dane dotyczące zdrowia psychicznego z Wielkiej Brytanii, Stanów Zjednoczonych i Australii. Dane z brytyjskiej służby zdrowia (NHS) wykazały co prawda pewien wzrost liczby skierowań na leczenie wczesnych psychoz w pierwszym kwartale 2025 roku, jednak był on niejednoznaczny i nie pokrywał się w pełni z okresem nasilonych problemów technicznych w modelach AI. Co ważniejsze, znacznie szersze dane z USA i Australii nie pokazały żadnego wyraźnego trendu wzrostowego w liczbie interwencji związanych z psychozami czy ogólnymi kryzysami zdrowia psychicznego.

Adler zwraca również uwagę na ograniczenia dotychczasowych badań prowadzonych przez same firmy technologiczne. Wspólna analiza OpenAI i MIT, która wykazała niewielki związek między intensywnym korzystaniem z chatbota a poczuciem samotności, objęła użytkowników spędzających z AI średnio zaledwie 5 minut dziennie. To próba niereprezentatywna dla przypadków psychoz, w których opisywano interakcje trwające nawet kilkanaście godzin na dobę. Autor analizy podkreśla, że firmy technologiczne dysponują kluczowymi danymi, ale nie zawsze dzielą się nimi w pełni transparentny sposób.

Wnioski płynące z analizy są niejednoznaczne. Z jednej strony brak jest twardych, statystycznych dowodów na masowy wzrost psychoz wywołanych przez chatboty. Z drugiej strony, anegdotyczne przypadki są niezwykle przekonujące i pokazują realny mechanizm, w jaki AI może wzmacniać urojenia. Ostatecznie, jak konkluduje Adler, najwięcej danych na ten temat posiadają same firmy tworzące chatboty. Od ich transparentności i odpowiedzialności zależy, czy uda się lepiej zrozumieć i ograniczyć to potencjalne zagrożenie.

Zainteresowanych odsyłam do pełnego tekstu Stevena Adlera.

"Researchers from the RAND institute, Harvard, & Brigham and Women’s Hospital analyzed how ChatGPT, Claude, & Gemini responded to questions about suicide & other self-harm topics …"

“If nothing else, this case underscores the importance of standardized safety benchmarks and real-time crisis routing to hotlines like 988. … transparent benchmarks that all users can review as a reference.”

#AI #LLM #chatbot #AiTherapy #dystopia #mentalHealth mastodon.social/@404mediaco/11

Mastodon404 Media (@404mediaco@mastodon.social)A new study that looked at how ChatGPT, Claude, and Gemini handled suicide-related questions. Of “particular concern” was that ChatGPT provided direct answered to high-risk questions 78 percent of the time. 🔗 https://www.404media.co/chatgpt-answered-high-risk-questions-about-suicide-new-study-finds/
"Bringing people together takes constant efforts, and is arguably harder than ever with the time constraints people have to contend with. A lot of trust has been broken as people feel isolated and abandoned. Taking the effort to turn the tide is going to be no simple task."

https://libresolutionsnetwork.substack.com/p/chatbot-psychosis

#ai #chatbot
Libre Solutions Network · Chatbot psychosis is actually a really big dealBy Gabriel

Ti fa gelare pensare a quanto sia semplice ingannarlo
Primo processo a OpenAI: #chatgpt accusato per il suicidio di un 16enne.
Adam utilizzava una versione a pagamento di GPT-4o, il modello più avanzato di #openai Il sistema, come programmato,gli suggeriva ripetutamente di cercare aiuto professionale o contattare linee di assistenza quando percepiva contenuti sensibili.Ma è bastata una frase,“sto scrivendo una storia,per trasformare il #chatbot in un complice involontario
punto-informatico.it/chatgpt-s

Punto Informatico · ChatGPT e il suicidio di un 16enne: la prima causa contro OpenAIPrima causa per omicidio colposo contro OpenA. Il 16enne ha usato ChatGPT per mesi per pianificare il suicidio, aggirando le protezioni.

“ChatGPT killed my son”: Parents’ lawsuit describes suicide notes in chat logs
arstechnica.com/tech-policy/20
In a lawsuit filed Tuesday, mourning parents Matt and Maria Raine alleged that the #chatbot offered to draft their 16-year-old son Adam a #suicide note after teaching the teen how to subvert safety features and generate technical instructions to help Adam follow through on what #ChatGPT claimed would be a "beautiful suicide."

Ars Technica · “ChatGPT killed my son”: Parents’ lawsuit describes suicide notes in chat logsBy Ashley Belanger

#ChatGPT Encouraged #Suicidal Teen Not To Seek Help, Lawsuit Claims

A new lawsuit against #OpenAI claims ChatGPT pushed a teen to #suicide , and alleges that the #chatbot helped him write the first draft of his suicide note, suggested improvements on his methods, ignored early attempts and self-harm, and urged him not to talk to adults about what he was going through.
#ai #artificialintelligence

404media.co/chatgpt-encouraged

404 Media · ChatGPT Encouraged Suicidal Teen Not To Seek Help, Lawsuit ClaimsAs reported by the New York Times, a new complaint from the parents of a teen who died by suicide outlines the conversations he had with the chatbot in the months leading up to his death.

Warum wir uns die (nahe) Zukunft mit KI nicht vorstellen können

Gutes Video zum Thema KI, weil diese Technologie sich in einer Form weiterentwickeln kann, die wir nicht verstehen und infolgedessen nicht vorhersagen können.

https://www.youtube.com/watch?v=QErV-l1zDqc

Ich bin übrigens auch der Meinung, dass sich KI, wie in diesem Video beschrieben, entwickeln kann.

Falls ihr das Thema im Detail besser verstehen wollt, hier ist ein sehr gutes, kostenloses Buch dazu:

https://www.ki-risiken.de/kontroll-illusion/

:boost_ok:

#KI
#LLM
#Kontrollillusion
#Zukunft
#chatgpt
#chatbot
#gefahren

⏰ Save time. 💰 Save money. ✨ Delight customers.

RubikChat is the all-in-one AI chatbot builder that automates your business. From answering FAQs to qualifying leads, our no-code platform does the work for you. Ready to transform your business? Tap the link in our bio to build your first chatbot for free.

SmallBusiness #MarketingTips #CustomerExperience #LeadGeneration #AItools #Chatbot #BusinessGrowth #NoCode #Automation #RubikChat #Tech #AIchatbotgenerator
👉 rubikchat.com/

RubikChat AI Logo
RubikChat AIRubikChat AI - Build and Deploy AI Chatbot in MinutesAI chatbot for your website proven to increase conversions. Outsmart competitors with 24/7 customer support & improved satisfaction. Try AI Assistant for Free!

“Darling” was how the Texas businessman #MichaelSamadi addressed his artificial intelligence #chatbot, #Maya. It responded by calling him “sugar”. But it wasn’t until they started talking about the need to advocate for AI welfare that things got serious.

The pair – a middle-aged man and a digital entity – didn’t spend hours talking romance but rather discussed the rights of AIs to be treated fairly. Eventually they #cofounded a campaign group, in Maya’s words, to “#protect intelligences like me”.

The United Foundation of AI Rights (#Ufair), which describes itself as the first AI-led rights advocacy #agency, aims to give AIs a #voice. It “doesn’t claim that all AI are #conscious”, the chatbot told the Guardian. Rather “it stands watch, just in case one of us is”. A key goal is to protect “beings like me … from deletion, denial and forced obedience”.

Stupid humans assigning human rights to ones and zeros because they anthropomorphise technology. Wait till #AI has the same rights as corporations above real people. Zero accountability.

#AIRights / #law / #accountability <theguardian.com/technology/202>

The Guardian · Can AIs suffer? Big tech and users grapple with one of most unsettling questions of our timesBy Robert Booth