| ▲ | blahblaher an hour ago | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
"It costs OpenAI less money to serve GPT-5.5 than GPT-4." does it though? do you have the numbers? Or you just making stuff up? | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ▲ | ralusek 32 minutes ago | parent | next [-] | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
We used to not know, but now because open source models are being hosted and served by people whose only incentive is making profit on directly running inference, we have a ballpark idea. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ▲ | simianwords an hour ago | parent | prev [-] | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
GPT-4 (original API): Input: $30 / 1M tokens Output: $60 / 1M tokens GPT-5.5: Input: $5 / 1M tokens Output: $30 / 1M tokens Costs have been reducing by over 5x year over year. Inference cost concern is mostly performative. https://simianwords.bearblog.dev/conclusive-proofs-that-llm-... Edit: can't reply but companies aren't selling inference at loss. In the blog post I point to third party hosting of open models like Deepseek which are also going down. They are not VC backed. I also point to Gemma 31B which you can run on your laptop today that beats most models from 2024. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||