Met de publicatie van OpenELM, een nieuwe familie van open source large language models (LLM’s) krijgen we nu iets meer zicht op de activiteiten waar Apple op het gebied van AI mee bezig is. Deze LLM’s kunnen lokaal op een apparaat draaien, zonder dat verbinding met een cloudserver nodig is. Apple heeft OpenELM vandaag openbaar gemaakt op de AI-community Hugging Face.
Er zijn in totaal acht OpenELM-modellen: vier daarvan zijn voorgetraind en vier andere werken met instructies. Ze hebben ene verschillende parametergrootte tussen 270 miljoen en 3 miljard. Dit zijn het aantal verbindingen tussen kunstmatige neuronen in een LLM. Meer parameters wijzen meestal op betere prestaties. Goed presterende modellen hebben meestal rond de 7 miljard parameters, dus het ligt bij Apple wel een stukje lager. De modellen van Apple zijn voorgetraind op openbare datasets van Reddit, Wikipedia en arXiv.org.
Apple biedt de OpenELM-modellen aan als ‘sample code license’. Je kunt de voorbeeldcode gebruiken (ook commercieel) en wijzigen, maar moet wel een bepaalde tekst erin opnemen. Ook neemt Apple geen verantwoordelijkheid voor eventuele output. Die kan onnauwkeurig, schadelijk, bevooroordeeld of aanstootgevend zijn.
Getest op MacBook Pro M2 Max
OpenELM staat voor Open-source Efficient Language Models. De modellen zijn bedoeld om volledig op een smartphone of laptop te kunnen draaien. In het artikel geeft Apple aan dat de benchmarks zijn uitgevoerd op een werkstation met Intel i9-13900KF CPU draaiend op Ubuntu, waarbij is vergeleken met een MacBook Pro met M2 Max. Vooral de modellen met 450 miljoen parameters blijken redelijk goed te presteren.
Uiteindelijk zal pas bij de aankondiging op WWDC 2024 blijken wat we hier nu daadwerkelijk mee kunnen doen. Wordt Siri daadwerkelijk slimmer? Begrijpt Siri de wereld een stuk beter? Kunnen we de iPhone opdrachten geven die voorheen niet mogelijk waren? We gaan het begin juni zien!
Taalfout gezien of andere suggestie hoe we dit artikel kunnen verbeteren? Laat het ons weten!
Reacties: 0 reacties