mastodon.world is one of the many independent Mastodon servers you can use to participate in the fediverse.
Generic Mastodon server for anyone to use.

Server stats:

8.1K
active users

#deepfakes

11 posts11 participants0 posts today

New York Times: He Sold His Likeness. Now His Avatar Is Shilling Supplements on TikTok.. “TikTok introduced a menu of A.I. avatars last year, to star in video ads that appear seamlessly in the app’s endless feed. Mr. Jacqmein’s likeness is one of more than a dozen that TikTok advertisers can choose from to promote their products, depending on the age, gender or ethnicity they’d like their […]

https://rbfirehose.com/2025/08/19/new-york-times-he-sold-his-likeness-now-his-avatar-is-shilling-supplements-on-tiktok/

ResearchBuzz: Firehose | Individual posts from ResearchBuzz · New York Times: He Sold His Likeness. Now His Avatar Is Shilling Supplements on TikTok. | ResearchBuzz: Firehose
More from ResearchBuzz: Firehose

#SteadyCommunityContent #KIMissbrauch #Retröt

#Deepfakes sind eine wachsende #Bedrohung, da sie täuschend echt wirkende #Fälschungen ermöglichen.

Können Menschen, auch bei Vorwarnung, #Deepfakes von echten Videos unterscheiden? #Wissenschaftler sind dieser Fragestellung nachgegangen, denn wenn #Fälschungen das Internet überfluten, kann das Vertrauen in digitale Inhalte und die #Medien insgesamt untergraben werden.

#Desinformation #FakeNews

tino-eberl.de/missbrauch-kuens

Tino Eberl · Deepfakes: Warum Warnhinweise nicht ausreichen, um Fälschungen zu erkennen
More from Tino Eberl

Google Photos Podría Indicar si las Imágenes Fueron Creadas o Editadas con IA

Una nueva función en desarrollo para Google Photos podría facilitar la identificación de contenido generado o editado con inteligencia artificial, proporcionando a los usuarios más información sobre el origen de sus imágenes para combatir la desinformación (Fuente Android Authority).

Google está trabajando en una nueva función para Google Photos que hará más fácil identificar si una foto o un video ha sido alterado con herramientas de inteligencia artificial. Esta característica, descubierta en el código de la aplicación, busca mitigar el problema de no poder distinguir entre contenido real y «deepfakes». La funcionalidad, referenciada en la versión 7.41 de la aplicación con el nombre en código «threepio», añadiría una nueva sección llamada “¿Cómo se hizo esto?” en la vista de detalles de la foto. Al deslizar el dedo hacia arriba sobre una imagen o video, los usuarios podrán ver información sobre cómo se creó o editó.

El sistema podría mostrar etiquetas como «Contenido creado con IA», «Editado con herramientas de IA», «Editado con múltiples herramientas de IA» o «Contenido capturado con una cámara sin ajustes de software». También podría detectar cuando se han utilizado múltiples herramientas de edición o cuando se han combinado varias imágenes. En caso de que el historial de edición del archivo se haya modificado o no esté disponible, Google Photos mostraría un mensaje de error.

Esta función parece estar basada en Content Credentials, un sistema que adjunta un historial de ediciones a un archivo, que se mantiene incluso cuando se comparte. Esta idea no es del todo nueva para Google, que ya ha desarrollado SynthID, una herramienta de marca de agua digital invisible para identificar imágenes generadas por IA. Ambas iniciativas buscan dar a los usuarios más contexto sobre el origen del contenido visual y son parte de un esfuerzo más amplio de la compañía para promover la transparencia en la era de la inteligencia artificial.

A flood of #AI #Deepfakes challenges the financial sector, with over 70% of new enrolments to some firms being fake, according to Tianyi Zhang, a general manager of risk management and #CyberSecurity at Singapore-based Ant International.

fortune.com/asia/2025/08/13/an

Fortune · A flood of AI deepfakes challenges the financial sector, with over 70% of new enrolments to some firms being fakeBy Lionel Lim
Replied in thread

@heiseonline@social.heise.de

#KI basierte #Smartglasses, die #Fotos und #Videoaufnahmen machen können.

Boa, ich kriege echt den Vogel. Da braucht es weder
#Videoüberwachung noch #Vorratsdatenspeicherung oder #Palantir mehr, wenn jeder jederzeit und überall völlig unbemerkt in #Echtzeit #Daten zur #Überwachung und #Manipulation erstellen und automatisiert verarbeiten (lassen) kann.

#Technik und #Fortschritt sind ja schon grundsätzlich gut, aber glauben die #Entwickler von #KI und solchen Techniken ernsthaft, dass das nicht mehr #Schaden als Nutzen bringt, denken sie gar nicht darüber nach, oder ist es ihnen schlicht egal 🤷

Wenn ich an die Probleme denke, die im
#Unterricht in der #Schule schon #Smartphone, #Smartwatch, #SocialMedia in den #asozialeMedien, verstärkt durch #KI (#Manipulation und #Deepfakes - für jede Dumpfbacke ohne Wissen und Können generierbar) machen, weil #Pubertierende das zwar alles 1a bedienen, aber nicht damit umgehen können (man beachte den kleinen, aber feinen Unterschied zwischen bedienen und umgehen), dann sehe ich für unsere #Gesellschaft wirklich rabenschwarz.

Ist ja nicht so, dass sich die moralischen Grenzen nicht schon seit dem Zeitalter von
#Smartphone und #SocialMedia massiv negativ verschoben hätten.

So was wie ein
#geschützterRaum und #Privatsphäre gehört damit endgültig der Vergangenheit an, egal ob #Klassenzimmer, medizinisch-therapeutische #Gesundheitseinrichtung, #Gerichtssaal, #Plenarsaal, #Büro, ...

#SchnellerWeiterHöher, entwickeln was technisch möglich ist und ohne #Folgenabschätzung sofort der breiten Masse zugänglich machen - um jeden Preis.

Läuft.

🤷🤦🤡🤮🤮🤮

#Datenschutz #TeamDatenschutz #informationelleSelbstbestimmung #RechtAmEigenenBild #Privatshäre #privacy

Replied in thread

@DerJoshDer@bonn.social

Ich sehe das ganz klar anders. Zwischen
#KI Computersystemen und echter Intelligenz besteht ein gigantischer, himmelweiter Unterschied.

Neben allem bereits von mir geschriebenen ist hier auch entscheidend, dass versucht wird, nicht lineare und reproduzierbare Ergebnisse durch den "Nachbau" der von dir beschriebenen neuronalen, multimodalen und modulierbaren Netzwerke zu generieren, sprich das, was unser Gehirn macht. Da wir aber die Funktion unseres Gehirns erst zu einem Bruchteil verstehen, lässt sich dessen Intelligenz auch nicht nachbauen.

Btw ist KI in erster Linie ein
#Energiefresser und #Klimakiller, von den ganzen gesellschaftlich-ethischen Problemen, weil jede Dumpfbacke ohne jede Kompetenz sich #Schadcode, #Deepfakes etc. generieren kann, ganz zu schweigen.

Deepfake dangers drive evolution of market for synthetic media detection Deepfakes are the issue of the moment. As generative AI continues to dominate headlines and gain users of all stripes, the p...

#Biometrics #News #Liveness #Detection #biometrics #deepfake #detection #deepfakes #digital #trust #generative

Origin | Interest | Match
BiometricUpdate.com · Deepfake dangers drive evolution of market for synthetic media detectionBy Joel R. McConvey
The Allure of AI: From Helper to Habit It started as a convenience — smart tools and chatbots that wrote your emails, curated your playlists, and answered your questions. Now… Continue read...

#deepfakes #ai-ethics #chatgpt #ai #technology

Origin | Interest | Match
Medium · The Allure of AI: From Helper to HabitIt started as a convenience — smart tools and chatbots that wrote your emails, curated your playlists, and answered your questions. Now…