| ▲ | conception 15 hours ago | ||||||||||||||||||||||||||||||||||||||||||||||||||||
Anthropic has been the only AI company actually caring about AI safety. Here’s a dated benchmark but it’s a trend Ive never seen disputed https://crfm.stanford.edu/helm/air-bench/latest/#/leaderboar... | |||||||||||||||||||||||||||||||||||||||||||||||||||||
| ▲ | CuriouslyC 15 hours ago | parent | next [-] | ||||||||||||||||||||||||||||||||||||||||||||||||||||
Claude is more susceptible than GPT5.1+. It tries to be "smart" about context for refusal, but that just makes it trickable, whereas newer GPT5 models just refuse across the board. | |||||||||||||||||||||||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||||||||||||||||||||||
| ▲ | nradov 13 hours ago | parent | prev [-] | ||||||||||||||||||||||||||||||||||||||||||||||||||||
That is not a meaningful benchmark. They just made shit up. Regardless of whether any company cares or not, the whole concept of "AI safety" is so silly. I can't believe anyone takes it seriously. | |||||||||||||||||||||||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||||||||||||||||||||||