À la fin de l’hiver, le parquet de Paris a ouvert une enquête contre X pour des soupçons de manipulation de son algorithme, à des fins d’ingérence. La justice française a demandé à voir les algorithmes. Refus catégorique de X, qui accuse la France d’utiliser son enquête à des fins politiques. C’est une affaire complexe. […]
Déjà il faut préciser ce que tu appelles un bon algo.
Un algo qui recherche des goûts ou tendances, et qui ne pousse pas juste du contenu générique en fonction du nombre de votes et d’interactions comme sur lemmy
Ce que je critique c’est le choix technique afin de capturer l’attention en exploitant les plus bas instincts, les biais mentaux et le circuit de récompense.
Oui certes tu peux critiquer, mais tout ce que tu n’aimes pas ne doit pas forcément être illégal
Pour le reste je suis d’accord pour la transparence mais moins pour la modération
Si twitter reconnaissait bien son activité éditoriale (qui est ancré à droite), je pense que pas mal de monde s’en séparerait
Les gens n’aiment pas le changement. Ça appartient a Musk, si ce n’est pas suffisant…
Dans ce cas, twitter n’a pas nécessairement un bon algo à moins que tu puisses justifier que les sorties de Musk peuvent intéresser un nouveau compte.
Je n’appelle pas forcément à l’illégalité de twitter mais si on peut (de temps en temps) interdire des molécules parce qu’elles sont ou sont perçues comme trop nocives, le blocage d’un algo en particulier, ou de ses réglages ne me choque pas. Certains produits dangereux ont besoin d’une autorisation de mise sur le marché.
Ils peuvent modérer comme ils veulent, mais il faut assumer les discours purement nazis émis sur la plateforme, et la recommandation qui en est faite. Le négationnisme, le racisme, l’homophobie et qq autres ne sont pas des opinions mais des délits en France. Si twitter le pousse avec son algo de recommandation, par transitivité twitter en est responsable (comme un journal est tenu responsable des propos de sa rédaction)
Une note publique émise par X même affichant les pires messages qu’on y trouve (être en accord avec Hitler notamment) et la transparence de l’algorithme (comme les photos des paquets de clopes) et on verrait si plus de monde ne part pas.
C’est pas parce qu’il s’“améliore” par la suite que proposer Elon Musk par défaut n’est pas un choix éditorial.
Si c’est volontairement fait alors je suis d’accord, mais prouver ça c’est pas simple
En attendant, si la création des bulles est systématiques, on a alors à faire à des réseaux de radicalisation dont la direction est souvent la même. S’ils ne font rien pour y remédier, ça devient volontaire, et dans la mesure ou Google a des notes internes qui remontent à 2016 qui justifient que peu importe leur niveau d’emmerdification, leur position hégémonique leur permet de faire absolument tout ce qu’ils veulent sans risque, ça me parait illusoire que Twitter ne soit pas au courrant, surtout au vu de la mise en avant de Musk depuis que c’est le proprio.
Un algo qui recherche des goûts ou tendances, et qui ne pousse pas juste du contenu générique en fonction du nombre de votes et d’interactions comme sur lemmy
Oui certes tu peux critiquer, mais tout ce que tu n’aimes pas ne doit pas forcément être illégal
Pour le reste je suis d’accord pour la transparence mais moins pour la modération
Les gens n’aiment pas le changement. Ça appartient a Musk, si ce n’est pas suffisant…
Dans ce cas, twitter n’a pas nécessairement un bon algo à moins que tu puisses justifier que les sorties de Musk peuvent intéresser un nouveau compte.
Je n’appelle pas forcément à l’illégalité de twitter mais si on peut (de temps en temps) interdire des molécules parce qu’elles sont ou sont perçues comme trop nocives, le blocage d’un algo en particulier, ou de ses réglages ne me choque pas. Certains produits dangereux ont besoin d’une autorisation de mise sur le marché.
Ils peuvent modérer comme ils veulent, mais il faut assumer les discours purement nazis émis sur la plateforme, et la recommandation qui en est faite. Le négationnisme, le racisme, l’homophobie et qq autres ne sont pas des opinions mais des délits en France. Si twitter le pousse avec son algo de recommandation, par transitivité twitter en est responsable (comme un journal est tenu responsable des propos de sa rédaction)
Une note publique émise par X même affichant les pires messages qu’on y trouve (être en accord avec Hitler notamment) et la transparence de l’algorithme (comme les photos des paquets de clopes) et on verrait si plus de monde ne part pas.
Il s’améliore par la suite
Le timing n’est pas bon haha
Ça peut se comprendre mais faut vraiment que ça soit mauvais alors
Si c’est volontairement fait alors je suis d’accord, mais prouver ça c’est pas simple
C’est pas parce qu’il s’“améliore” par la suite que proposer Elon Musk par défaut n’est pas un choix éditorial.
En attendant, si la création des bulles est systématiques, on a alors à faire à des réseaux de radicalisation dont la direction est souvent la même. S’ils ne font rien pour y remédier, ça devient volontaire, et dans la mesure ou Google a des notes internes qui remontent à 2016 qui justifient que peu importe leur niveau d’emmerdification, leur position hégémonique leur permet de faire absolument tout ce qu’ils veulent sans risque, ça me parait illusoire que Twitter ne soit pas au courrant, surtout au vu de la mise en avant de Musk depuis que c’est le proprio.
Je n’ai pas dit le contraire. La question portait sur “bon algo”. Homme de paille ?
Certes, c’est un argument.