Gebruik een AI-chatbot zónder internet met LM Studio op de Mac
Direct aan de slag?
Chatbots in de cloud
De meeste chatbots, waaronder ChatGPT, Microsoft Copilot, Google Bard en Meta AI, werken allemaal via de cloud. Oftewel, alle opdrachten die je naar de bot verstuurt worden op een server verwerkt, en de resultaten worden weer teruggestuurd. Dit werkt razendsnel door de indrukwekkende hardware waarop de servers draaien, maar het heeft ook wat nadelen. Zo is het niet mogelijk om deze chatbots zonder internet te gebruiken en kunnen er zorgen zijn over je privacy omdat alles wat je zegt over het internet vliegt. Daarnaast zijn dit soort chatbots behoorlijk dichtgetimmerd: wil je bijvoorbeeld proberen om ChatGPT een speech te laten schrijven in de stijl van een bepaald persoon, dan weigert hij direct dienst.
Lokale chatbots
De oplossing? Lokale chatbots! Door lokaal een AI te draaien, heb je alles zelf in de hand. Je hebt geen internet meer nodig, gesprekken blijven op je apparaat, en je kunt wat vrijere chatbots gebruiken die íéts minder streng zijn met wat ze wel en niet willen doen. De beste manier om dit soort lokale AI’s te draaien, is met de Mac-app LM Studio. LM Studio is gratis beschikbaar via de website lmstudio.ai, heeft een overzichtelijke interface, en biedt allerlei gratis AI-modellen aan. Misschien wel de beste op dit moment is die van Meta, Llama 3, die bijna op het niveau van ChatGPT presteert terwijl hij alleen de kracht nodig heeft van een Apple Silicon-chipje. Wij laten je zien hoe je met LM Studio en Llama 3 aan de slag gaat.