▲ | tayo42 2 days ago | ||||||||||||||||||||||||||||||||||||||||||||||||||||
Llms only work in one direction, they produce the next token only. It can't go back and edit. They would need to be able to back track and edit in place somehow | |||||||||||||||||||||||||||||||||||||||||||||||||||||
▲ | thunky 2 days ago | parent | next [-] | ||||||||||||||||||||||||||||||||||||||||||||||||||||
Loops. Plus, the entire session/task history goes into every LLM prompt, not just the last message. So for every turn of the loop the LLM has the entire context with everything that previously happened in it, along with added "memories" and instructions. | |||||||||||||||||||||||||||||||||||||||||||||||||||||
▲ | DANmode 2 days ago | parent | prev [-] | ||||||||||||||||||||||||||||||||||||||||||||||||||||
"Somehow", like caching multiple layers of context, like all the free tools are now doing? | |||||||||||||||||||||||||||||||||||||||||||||||||||||
|