▲ | tough a day ago | |||||||||||||||||||||||||||||||||||||||||||||||||||||||
they arent. a model learns words or tokens more pedantically but has no sense of time nor cant track dates | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||
▲ | svachalek a day ago | parent | next [-] | |||||||||||||||||||||||||||||||||||||||||||||||||||||||
Yup. Either the system prompt includes a date it can parrot, or it doesn't and the LLM will just hallucinate one as needed. Looks like it's the latter case here. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||
▲ | manmal a day ago | parent | prev [-] | |||||||||||||||||||||||||||||||||||||||||||||||||||||||
Technically they don’t, but OpenAI must be injecting the current date and time into the system prompt, and Gemini just does a web search for the time when asked. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|