| ▲ | ksynwa 4 hours ago | ||||||||||||||||||||||||||||||||||||||||||||||
Why mac mini instead of something like a raspberry pi? Aren't thede claw things delegating inference to OpenAI, Antropic etc.? | |||||||||||||||||||||||||||||||||||||||||||||||
| ▲ | kator 3 hours ago | parent | next [-] | ||||||||||||||||||||||||||||||||||||||||||||||
Some users are moving to local models, I think, because they want to avoid the agent's cost, or they think it'll be more secure (not). The mac mini has unified memory and can dynamically allocate memory to the GPU by stealing from the general RAM pool so you can run large local LLMs without buying a massive (and expensive) GPU. | |||||||||||||||||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||||||||||||||||
| ▲ | ErneX 37 minutes ago | parent | prev | next [-] | ||||||||||||||||||||||||||||||||||||||||||||||
They recommend a Mac Mini because it’s the cheapest device that can access your Apple reminders and iMessage. If you are into that ecosystem obviously. If you don’t need any of that then any device or small VPS instance will suffice. | |||||||||||||||||||||||||||||||||||||||||||||||
| ▲ | djfergus 4 hours ago | parent | prev [-] | ||||||||||||||||||||||||||||||||||||||||||||||
A Mac allows it to send iMessage and access the Apple ecosystem. | |||||||||||||||||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||||||||||||||||