Een krachtig LLM-model dat volledig offline draait, lokaal op onze CPU’s. Voor wie meer rekenkracht nodig heeft, is er ondersteuning voor GPU-acceleratie. Wat Marije echt bijzonder maakt, is dat ze niet zomaar een kant-en-klare chatbot is. Ze is flexibel, uitbreidbaar, transparant én gemaakt voor onze eigen praktijk.
Met Marije bouwen we aan een kennisbank die we zelf vullen, beheren en koppelen aan het model. Zo stemmen we haar af op de specifieke vragen en contexten van onze collega’s en klanten. En omdat we gebruikmaken van Ollama (een platform waarmee je lokaal verschillende AI-modellen kunt draaien) als basis, kunnen we schakelen tussen verschillende modellen als dat nodig is.
Een voorbeeld? Een instructeur in de koudetechniek kan Marije vragen naar het verschil tussen twee typen koudemiddelen. Marije beantwoordt die vraag niet alleen in begrijpelijke taal, maar toont ook de onderliggende technische bron die door onszelf is geverifieerd.
De gebruikersinterface van Marije is laagdrempelig, ook voor wie geen technische achtergrond heeft. Collega’s kunnen zelf experimenteren, trainen, aanpassen — zonder een regel code te hoeven schrijven.