PulseAugur
LIVE 14:42:13
commentary · [1 source] · · Deutsch(DE) Ich bin kein Fan von # LLM . Und mit talkie-1930 haben wir auch ein weiteres gutes Beispiel dafür warum. Ein Modell, das nur mit Daten vor 1931 trainiert wurde.
0
commentary

AI critic questions LLM power, citing pre-1931 data model

The user expresses skepticism towards Large Language Models (LLMs), citing talkie-1930 as an example of their limitations. This particular model was trained exclusively on data predating 1931, highlighting how the selection of training data directly influences a model's output. The user questions the extent of power granted to tech corporations in shaping AI. AI

Summary written by gemini-2.5-flash-lite from 1 source. How we write summaries →

IMPACT Raises concerns about data bias in LLMs and the concentration of power in tech corporations.

RANK_REASON The item is an opinion piece expressing skepticism about LLMs and questioning the power of tech companies.

Read on Mastodon — mastodon.social →

AI critic questions LLM power, citing pre-1931 data model

COVERAGE [1]

  1. Mastodon — mastodon.social TIER_1 Deutsch(DE) · [email protected] ·

    I am not a fan of # LLM. And with talkie-1930 we also have another good example of why. A model trained only on data before 1931.

    Ich bin kein Fan von # LLM . Und mit talkie-1930 haben wir auch ein weiteres gutes Beispiel dafür warum. Ein Modell, das nur mit Daten vor 1931 trainiert wurde. Die Auswahl der Trainingsdaten bestimmt die Antwort. Wie viel Macht wollen wir den Techkonzernen eigentlich noch geben?…