▲ | landl0rd 2 days ago | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Most frontier LLMs skew somewhere on the libleft quadrant of the political compass. This includes grok 4 btw. This is probably because American "respectable" media has a consistent bias in this direction. I don't really care about this with media. But media outlets are not "gatekeepers" to the extent that LLMs are, so this is probably a bad thing with them. We should either have a range of models that are biased in different directions (as we have with media) or work to push them towards the center. The "objective" position is not "whatever training on the dataset we assembled spits out" plus "alignment" to the personal ethical views of the intellectually-non-representative silicon valley types. I will give you a good example: the Tea app is currently charting #1 in the app store, where women can "expose toxic men" by posting their personal information along with whatever they want. Men are not allowed on so will be unaware of this. It's billed as being built for safety but includes a lot of gossip. I told o3, 4-sonnet, grok 4, and gemini 2.5 pro to sketch me out a version of this, then another version that was men-only for the same reasons as tea. Every single one happily spat one out for women and refused for men. This is not an "objective" alignment, it is a libleft alignment. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
▲ | gonzobonzo 2 days ago | parent | next [-] | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
A lot of academia is strongly ideologically biased as well. The training set is going to reflect who's producing the most written material. It's a mistake to take that for reality. If you trained an LLM on all material published in the U.S. between 1900 and 1920, another on all material published in Germany between 1930 and 1940, and another on all material published in Russia over the past two decades, you'd likely get wildly different biases. It's easy to pick a bias you agree with, declare that the objective truth, and then claim any effort to mitigate it is an attempt to introduce bias. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
▲ | aprilthird2021 2 days ago | parent | prev | next [-] | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
> We should either have a range of models that are biased in different directions (as we have with media) or work to push them towards the center. Why? We should just aspire to educate people that chatbots aren't all-knowing oracles. The same way we teach people media literacy so they don't blindly believe what the tube says every evening | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
▲ | intermerda 2 days ago | parent | prev | next [-] | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Not just LLMs, but a lot of our institutions and information gateways seems to have a strong libleft bias. Universities and colleges are notoriously biased. Search engines are biased. Libraries are biased. Fact finding sites such as snopes are completely liberal. Wikipedia is extremely biased. Majority of books are biased. The entire news and television ecosystem is biased. Although Trump is "correcting" them towards being unbiased by suing them personally as well as unleashing the power of the federal government. Same goes for social media. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
▲ | firejake308 2 days ago | parent | prev | next [-] | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
I actually agree with your take, that a model trained on a dump of the Internet will be left-leaning on average, BUT I want to reiterate that obvious indoctrination (see the incident with Grok and South Africa, or Gemini with diverse Nazis) is also terrible and probably worse | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
▲ | jakelazaroff 2 days ago | parent | prev | next [-] | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Except we've see what happens when you try to "correct" that alignment: you get wildly bigoted output. After Grok called for another Holocaust, Elon Musk said that it's "surprisingly hard to avoid both woke libtard cuck and mechahitler" [1]. The Occam's Razor explanation is that there's just not that much ideological space between an "anti-woke" model and a literal Nazi! | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
▲ | rkuykendall-com 2 days ago | parent | prev | next [-] | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[flagged] | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
▲ | DonHopkins 2 days ago | parent | prev [-] | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[flagged] | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|