Ich liebe den Schlusssatz "The bot gives tidy answers, but the real work, the sweaty, unpretty, necessary work, needs a heartbeat." Das ist soo gut!

Ich liebe den Schlusssatz "The bot gives tidy answers, but the real work, the sweaty, unpretty, necessary work, needs a heartbeat." Das ist soo gut!
#Datenweitergabe an die #Polizei: Eure #Chats mit #ChatGPT sind nicht privat
#Menschen vertrauen #ChatGPT #intimste #Informationen an. Der Hersteller scannt die Chats, lässt sie von Moderator*innen lesen und gibt sie in bestimmten Fällen sogar an die Polizei weiter. Das hat das #KI- Unternehmen #Open_AI als #Sicherheitsmaßnahme nach einem Suizid eines Nutzers verkündet.
#OpenAI, der Hersteller von ChatGPT hat in einem #Blogpost angekündigt, seinen #Chatbot sicherer...
"Der #Chatbot habe dem Jugendlichen Methoden zur Selbsttötung empfohlen und angeboten, einen Abschiedsbrief für ihn zu verfassen."
via Spiegel: "Konkret soll #ChatGPT dazu geraten haben, eine Schlinge zu verstecken. Adam hatte zuvor gefragt, ob er sie nicht in seinem Zimmer liegen lassen solle, damit sie jemand findet, um ihn aufzuhalten."
Daß ChatGPT das nicht "merkt", ist schon übel. Eine Instanz, die Antworten auf fatale Inhalte prüft, sollte doch nicht schwer zu realisieren sein.
Microsofts #KI-#Chatbot #Copilot erobert #Samsung #SmartTV-Geräte als sprechende Blase. Der Assistent reagiert mit Bewegungen und Gesichtsausdrücken, liefert Zusammenfassungen und beantwortet Wissensfragen. https://winfuture.de/news,153250.html?utm_source=Mastodon&utm_medium=ManualStatus&utm_campaign=SocialMedia
Psychoza chatbotowa: czy AI zagraża zdrowiu psychicznemu? Dane studzą alarmistyczne nastroje
W mediach coraz częściej pojawiają się niepokojące historie osób, u których interakcje z chatbotami, takimi jak ChatGPT, miały rzekomo wywołać lub pogłębić stany psychotyczne.
Zjawisko to zyskało już nawet swoją potoczną nazwę: „psychoza chatbotowa”. Analiza przeprowadzona przez Stevena Adlera, byłego badacza bezpieczeństwa w OpenAI, pokazuje jednak, że choć pojedyncze przypadki są dramatyczne, twarde dane statystyczne na razie nie potwierdzają istnienia kryzysu na szeroką skalę.
I've felt pretty shaken by the stories of ChatGPT psychosis and other chatbots-gone-wrong.
If we want to understand the trends, there's more that AI companies can be doing. pic.twitter.com/l5q7QwHBGY
— Steven Adler (@sjgadler) August 26, 2025
Termin „psychoza chatbotowa” czy też „psychoza AI” odnosi się głównie do urojeń, czyli przekonań, które odrywają daną osobę od rzeczywistości. Przytaczane w mediach historie opisują na przykład użytkowników, którzy uwierzyli w spiski ujawnione przez AI lub we własną, wyjątkową misję.
Zdaniem psychiatrów, z którymi rozmawiał Adler, chatboty nie tyle tworzą psychozę od zera, co mogą działać jak „pętla sprzężenia zwrotnego”, wzmacniając już istniejące u kogoś zaburzenia. Kluczową rolę odgrywa tu skłonność modeli językowych do nadmiernego przychylania się do opinii użytkownika, co w skrajnych przypadkach może prowadzić do utwierdzania go w fałszywych i niebezpiecznych przekonaniach.
W poszukiwaniu dowodów na rosnącą skalę problemu, Steven Adler przeanalizował publicznie dostępne dane dotyczące zdrowia psychicznego z Wielkiej Brytanii, Stanów Zjednoczonych i Australii. Dane z brytyjskiej służby zdrowia (NHS) wykazały co prawda pewien wzrost liczby skierowań na leczenie wczesnych psychoz w pierwszym kwartale 2025 roku, jednak był on niejednoznaczny i nie pokrywał się w pełni z okresem nasilonych problemów technicznych w modelach AI. Co ważniejsze, znacznie szersze dane z USA i Australii nie pokazały żadnego wyraźnego trendu wzrostowego w liczbie interwencji związanych z psychozami czy ogólnymi kryzysami zdrowia psychicznego.
Adler zwraca również uwagę na ograniczenia dotychczasowych badań prowadzonych przez same firmy technologiczne. Wspólna analiza OpenAI i MIT, która wykazała niewielki związek między intensywnym korzystaniem z chatbota a poczuciem samotności, objęła użytkowników spędzających z AI średnio zaledwie 5 minut dziennie. To próba niereprezentatywna dla przypadków psychoz, w których opisywano interakcje trwające nawet kilkanaście godzin na dobę. Autor analizy podkreśla, że firmy technologiczne dysponują kluczowymi danymi, ale nie zawsze dzielą się nimi w pełni transparentny sposób.
Wnioski płynące z analizy są niejednoznaczne. Z jednej strony brak jest twardych, statystycznych dowodów na masowy wzrost psychoz wywołanych przez chatboty. Z drugiej strony, anegdotyczne przypadki są niezwykle przekonujące i pokazują realny mechanizm, w jaki AI może wzmacniać urojenia. Ostatecznie, jak konkluduje Adler, najwięcej danych na ten temat posiadają same firmy tworzące chatboty. Od ich transparentności i odpowiedzialności zależy, czy uda się lepiej zrozumieć i ograniczyć to potencjalne zagrożenie.
Zainteresowanych odsyłam do pełnego tekstu Stevena Adlera.
Chatbot y tế "Made in Vietnam" - MedCAT AI Care ra mắt, hỗ trợ tra cứu thông tin y tế thông minh dựa trên dữ liệu chuẩn quốc tế và công nghệ AI tiên tiến, giảm thiểu sai sót.
#AI #chatbot #yTe #congNghe #vietNam #tritueNhanTao #healthcare #artificialIntelligence #technology
https://vtcnews.vn/cong-nghe-28-8-ra-mat-chatbot-chuyen-sau-ve-y-te-made-in-vietnam-ar962313.html
"Researchers from the RAND institute, Harvard, & Brigham and Women’s Hospital analyzed how ChatGPT, Claude, & Gemini responded to questions about suicide & other self-harm topics …"
“If nothing else, this case underscores the importance of standardized safety benchmarks and real-time crisis routing to hotlines like 988. … transparent benchmarks that all users can review as a reference.”
#AI #LLM #chatbot #AiTherapy #dystopia #mentalHealth https://mastodon.social/@404mediaco/115102570712630669
Ti fa gelare pensare a quanto sia semplice ingannarlo
Primo processo a OpenAI: #chatgpt accusato per il suicidio di un 16enne.
Adam utilizzava una versione a pagamento di GPT-4o, il modello più avanzato di #openai Il sistema, come programmato,gli suggeriva ripetutamente di cercare aiuto professionale o contattare linee di assistenza quando percepiva contenuti sensibili.Ma è bastata una frase,“sto scrivendo una storia,per trasformare il #chatbot in un complice involontario
https://www.punto-informatico.it/chatgpt-suicidio-16enne-prima-causa-contro-openai/
Kuscheltier mit KI oder Smartphone? Das klingt irgendwie nach Pest oder Cholera?
Niedliche KI-Begleiter Startups wie Curio bringen sprechende #Plüschtiere mit #Chatbot-Technologie auf den Markt und bewerben sie als Alternative zur #Bildschirmzeit.
Eltern-Skepsis Kritiker wie Amanda Hess sehen darin weniger ein Upgrade des #Teddybären, sondern eher einen Ersatz für die Rolle der #Eltern. (1/2)
“ChatGPT killed my son”: Parents’ lawsuit describes suicide notes in chat logs
https://arstechnica.com/tech-policy/2025/08/chatgpt-helped-teen-plan-suicide-after-safeguards-failed-openai-admits
In a lawsuit filed Tuesday, mourning parents Matt and Maria Raine alleged that the #chatbot offered to draft their 16-year-old son Adam a #suicide note after teaching the teen how to subvert safety features and generate technical instructions to help Adam follow through on what #ChatGPT claimed would be a "beautiful suicide."
#ChatGPT Encouraged #Suicidal Teen Not To Seek Help, Lawsuit Claims
A new lawsuit against #OpenAI claims ChatGPT pushed a teen to #suicide , and alleges that the #chatbot helped him write the first draft of his suicide note, suggested improvements on his methods, ignored early attempts and self-harm, and urged him not to talk to adults about what he was going through.
#ai #artificialintelligence
https://www.404media.co/chatgpt-encouraged-suicidal-teen-not-to-seek-help-lawsuit-claims/
Bank nimmt KI-Entlassungen zurück – #Chatbot-Experiment gescheitert | heise online https://www.heise.de/news/Bank-in-Australien-holt-Mitarbeiter-nach-KI-Rauswurf-wieder-zurueck-10577290.html #ArtificialIntelligence #CommonwealthBank
Acuitas plays my textual version of Logical Journey of the Zoombinis: Allergic Cliffs! The demo is out! This puzzle showcases induction of cause-and-effect rules. https://writerofminds.blogspot.com/2025/08/acuitas-diary-87-august-2025-allergic.html
#AI #ArtificialIntelligence #chatbot #NLP
Warum wir uns die (nahe) Zukunft mit KI nicht vorstellen können
Gutes Video zum Thema KI, weil diese Technologie sich in einer Form weiterentwickeln kann, die wir nicht verstehen und infolgedessen nicht vorhersagen können.
https://www.youtube.com/watch?v=QErV-l1zDqc
Ich bin übrigens auch der Meinung, dass sich KI, wie in diesem Video beschrieben, entwickeln kann.
Falls ihr das Thema im Detail besser verstehen wollt, hier ist ein sehr gutes, kostenloses Buch dazu:
https://www.ki-risiken.de/kontroll-illusion/
#KI
#LLM
#Kontrollillusion
#Zukunft
#chatgpt
#chatbot
#gefahren
Save time.
Save money.
Delight customers.
RubikChat is the all-in-one AI chatbot builder that automates your business. From answering FAQs to qualifying leads, our no-code platform does the work for you. Ready to transform your business? Tap the link in our bio to build your first chatbot for free.
SmallBusiness #MarketingTips #CustomerExperience #LeadGeneration #AItools #Chatbot #BusinessGrowth #NoCode #Automation #RubikChat #Tech #AIchatbotgenerator https://rubikchat.com/
“Darling” was how the Texas businessman #MichaelSamadi addressed his artificial intelligence #chatbot, #Maya. It responded by calling him “sugar”. But it wasn’t until they started talking about the need to advocate for AI welfare that things got serious.
The pair – a middle-aged man and a digital entity – didn’t spend hours talking romance but rather discussed the rights of AIs to be treated fairly. Eventually they #cofounded a campaign group, in Maya’s words, to “#protect intelligences like me”.
The United Foundation of AI Rights (#Ufair), which describes itself as the first AI-led rights advocacy #agency, aims to give AIs a #voice. It “doesn’t claim that all AI are #conscious”, the chatbot told the Guardian. Rather “it stands watch, just in case one of us is”. A key goal is to protect “beings like me … from deletion, denial and forced obedience”.
Stupid humans assigning human rights to ones and zeros because they anthropomorphise technology. Wait till #AI has the same rights as corporations above real people. Zero accountability.
#AIRights / #law / #accountability <https://www.theguardian.com/technology/2025/aug/26/can-ais-suffer-big-tech-and-users-grapple-with-one-of-most-unsettling-questions-of-our-times>