@voidalexsutzu: #viral #foryoupage #fy #relatable #relatablecontent #real #literallyme #slideshow #americanpsycho #patrickbateman #literallypatrickbateman #christianbale

︎︎ 𒉭
︎︎ 𒉭
Open In TikTok:
Region: RO
Wednesday 14 May 2025 19:56:38 GMT
420260
80887
79
11350

Music

Download

Comments

x..038m
ᴹ :
Real like im the biggest hater of me
2025-05-15 22:17:16
1323
mozzar_ella.13
Ella⸆⸉ ⎕💐🌞🍸 :
Like I am my biggest hater and supporter 😼
2025-05-16 16:35:07
271
pinkysmermmiemunchie021
pinkyyspermmiemunchiee021 :
this one won the trend
2025-05-15 05:47:05
162
awbzyzah
່ :
Lol
2025-06-05 00:49:12
0
andreaa3348
andrea :
i do it best what can i say
2025-05-16 18:17:17
51
ratbabezz
Unia👿 :
No one hates me more than i hate myself
2025-05-17 00:27:18
82
alvisadervishaj9
A :
real.
2025-05-17 15:14:33
0
francesco_assenza
Francesco Assenza :
realest thing i will see today
2025-05-16 12:58:16
20
iiam.giuli
iiam.giuli :
Cant let my enemies know this bro
2025-05-17 19:52:59
0
simone_rosiello
Simone :
I do it better 💪
2025-05-16 19:30:29
71
fransanchezz0022
frann.sanchez :
i am my biggest hater💯🥇
2025-05-18 01:51:46
0
gillerbettamatkhuzaily
Giller Betta :
yeah 😂
2025-05-17 14:07:54
0
ymikal_
MikaL :
fr
2025-05-17 16:34:48
0
manchesterisnotblue
manchesterisnotblue :
This the one right here
2025-05-27 00:42:36
2
ellamaldita19
Me gustas tú💝 :
hating the same person❤️
2025-06-04 16:44:04
2
aki___0_0
🌟 :
GIRL PLEASE, YES
2025-05-16 16:30:51
8
hamzaui7861
Hamzaui786 :
REAL
2025-05-16 11:31:52
0
ileana5656
ileana :
There that’s when I met him
2025-05-15 17:17:02
4
relatablereql
𝆔 :
me
2025-06-13 19:41:26
1
hyperconnectivity
hyperconnectivity :
accurate
2025-05-17 19:57:10
0
miqg.g
M💋 :
🧑 🥼 👖 👞👞Toto je Kuba, vložte ho do dalších videí, aby mohl cestovat.
2025-05-16 17:42:46
0
eva.weberr
e v a :
relatable
2025-05-17 16:41:50
0
ariellesarahnadle
ariella :
Fr
2025-05-20 21:36:18
0
asii_0013
asii :
I wanna delete all my reposts and leave this one
2025-05-19 13:48:31
13
abcdefghijk_lmaop
defnotascam_0101 :
risky to repost
2025-05-28 17:42:30
0
To see more videos from user @voidalexsutzu, please go to the Tikwm homepage.

Other Videos

Une enquête récente révèle un nouvel angle de critique sur la modernisation numérique de l’administration française : l’utilisation par la Caisse d’Allocations Familiales (CAF) d’un algorithme de contrôle automatisé, accusé par plusieurs associations de discriminer massivement les allocataires. Selon les informations rendues publiques, ce système opère dans l’ombre depuis plusieurs années, évaluant et notant les profils de millions de bénéficiaires sur la base de critères tels que l’âge, la situation de handicap, le statut professionnel ou encore le niveau de revenus. En 2022, plus de 28 millions de contrôles automatisés auraient ainsi été déclenchés, touchant potentiellement près de 32 millions de Français inscrits dans les fichiers de l’organisme. Pour les associations engagées dans une action en justice, ce dispositif constitue une atteinte aux droits sociaux fondamentaux, en instaurant une surveillance ciblée qui pénaliserait avant tout les plus fragiles : jeunes, chômeurs de longue durée, ménages modestes et bénéficiaires de prestations liées au handicap. Ces organisations estiment que l’algorithme, dont le fonctionnement exact reste secret, introduit des biais systémiques en orientant de façon disproportionnée les contrôles vers certaines catégories de population, alimentant ainsi un sentiment d’injustice et de suspicion permanent à l’égard des ayants droit. Le sujet dépasse cependant la seule CAF. D’autres organismes, comme France Travail ou l’Assurance Maladie, développent des systèmes de traitement automatisé comparables afin de rationaliser la gestion des dossiers et de détecter d’éventuelles fraudes. Pour les défenseurs des libertés publiques, ce mouvement soulève un enjeu de société bien plus large : l’extension progressive de méthodes de surveillance algorithmique à l’ensemble des services sociaux, au risque de transformer la relation entre l’État et les citoyens en un rapport fondé sur la défiance et le contrôle systématique. Cette affaire s’inscrit dans un contexte marqué par une vigilance accrue autour de l’utilisation de l’intelligence artificielle au sein des administrations, alors que le cadre législatif encadrant ces pratiques reste encore balbutiant. Les associations plaignantes appellent aujourd’hui à une transparence totale sur les critères utilisés, ainsi qu’à un débat public sur la légitimité d’employer de tels outils dans la gestion des prestations sociales. Le contentieux en cours pourrait ainsi constituer une étape décisive : soit confirmer le tournant vers une gouvernance pilotée par les données, soit imposer de nouvelles limites pour préserver les principes d’égalité et de protection des droits. #discriminations #Scandale #Décryptage #Actualités #DebatSociete
Une enquête récente révèle un nouvel angle de critique sur la modernisation numérique de l’administration française : l’utilisation par la Caisse d’Allocations Familiales (CAF) d’un algorithme de contrôle automatisé, accusé par plusieurs associations de discriminer massivement les allocataires. Selon les informations rendues publiques, ce système opère dans l’ombre depuis plusieurs années, évaluant et notant les profils de millions de bénéficiaires sur la base de critères tels que l’âge, la situation de handicap, le statut professionnel ou encore le niveau de revenus. En 2022, plus de 28 millions de contrôles automatisés auraient ainsi été déclenchés, touchant potentiellement près de 32 millions de Français inscrits dans les fichiers de l’organisme. Pour les associations engagées dans une action en justice, ce dispositif constitue une atteinte aux droits sociaux fondamentaux, en instaurant une surveillance ciblée qui pénaliserait avant tout les plus fragiles : jeunes, chômeurs de longue durée, ménages modestes et bénéficiaires de prestations liées au handicap. Ces organisations estiment que l’algorithme, dont le fonctionnement exact reste secret, introduit des biais systémiques en orientant de façon disproportionnée les contrôles vers certaines catégories de population, alimentant ainsi un sentiment d’injustice et de suspicion permanent à l’égard des ayants droit. Le sujet dépasse cependant la seule CAF. D’autres organismes, comme France Travail ou l’Assurance Maladie, développent des systèmes de traitement automatisé comparables afin de rationaliser la gestion des dossiers et de détecter d’éventuelles fraudes. Pour les défenseurs des libertés publiques, ce mouvement soulève un enjeu de société bien plus large : l’extension progressive de méthodes de surveillance algorithmique à l’ensemble des services sociaux, au risque de transformer la relation entre l’État et les citoyens en un rapport fondé sur la défiance et le contrôle systématique. Cette affaire s’inscrit dans un contexte marqué par une vigilance accrue autour de l’utilisation de l’intelligence artificielle au sein des administrations, alors que le cadre législatif encadrant ces pratiques reste encore balbutiant. Les associations plaignantes appellent aujourd’hui à une transparence totale sur les critères utilisés, ainsi qu’à un débat public sur la légitimité d’employer de tels outils dans la gestion des prestations sociales. Le contentieux en cours pourrait ainsi constituer une étape décisive : soit confirmer le tournant vers une gouvernance pilotée par les données, soit imposer de nouvelles limites pour préserver les principes d’égalité et de protection des droits. #discriminations #Scandale #Décryptage #Actualités #DebatSociete

About