| ▲ | bethekidyouwant a day ago | |||||||||||||||||||||||||||||||
In what world can you not always break the response of an AI by feeding it a bunch of random junk? | ||||||||||||||||||||||||||||||||
| ▲ | xnx a day ago | parent | next [-] | |||||||||||||||||||||||||||||||
Indeed. In what world can you not break any tool when deliberately misusing it? | ||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||
| ▲ | kgeist a day ago | parent | prev | next [-] | |||||||||||||||||||||||||||||||
I mean, currently LLMs are stateless and you can get rid of all the poisoned data by just starting a new conversation (context). And OP introduces "long-term memory" where junk will accumulate with time | ||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||
| ▲ | CooCooCaCha a day ago | parent | prev [-] | |||||||||||||||||||||||||||||||
I mean ideally AI would be resilient to junk, don't you think? | ||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||