Hoe Apple-producten steeds slimmer worden dankzij Deep Learning
Heb jij op 15 augustus 2014 gemerkt dat Siri veel slimmer is geworden? Waarschijnlijk niet – en dat is precies wat Apple wil. Achter de schermen zijn ze druk bezig om allerlei vormen van kunstmatige intelligentie in hun producten te stoppen, zonder dat de klant er iets van merkt. In een uitgebreid interview met Eddy Cue, Craig Federighi, Phil Schiller en andere Apple-kopstukken kom je meer te weten over de vele activiteiten die Apple onderneemt om Siri, de Apple Pencil en iOS 10 nog slimmer te maken.
Update 25 augustus: de oorspronkelijke makers van Siri zullen heel anders terugkijken op het verhaal. Zij vonden dat Apple de mogelijkheden van Siri bij de overname sterk beperkt heeft. Inmiddels maken ze de nieuwe assistent Viv:
Deep learning zit in alle producten
Steven Levy is oudgediende op het gebied van Apple-verslaggeving. Hij schrijft al decennialang over Apple, waaronder het vermakelijke boek ‘The Perfect Thing’ (over de iPod) en ‘Insanely Great’ (over de Macintosh). In zijn nieuwste interview op Backchannel vertelt hij over de vele activiteiten die Apple onderneemt op het gebied van kunstmatige intelligentie.
Zo blijkt dat Siri in 2014 overstapte op een nieuw systeem, gebaseerd op neurale netwerken. De eerdere versie van Siri werkte goed, maar maakte ook wel eens wat foutjes bij het interpreteren van opdrachten. Met alleen tweaks zou Apple het niet kunnen oplossen. Daarom stapten ze in juli 2014 over op een nieuw systeem. De rest van de wereld volgde in augustus 2014. Gebruikers merkten er op het eerste gezicht niets van: Siri zag er nog steeds hetzelfde uit, maar de antwoorden werden steeds beter.
Voorbeeld: het gebruiksgemak van de Apple Pencil
Levy kreeg tijdens het interview een twee pagina’s tellende lijst van producten en diensten waarin Apple al gebruik maakt van machine learning en andere slimme technieken. Daarmee wilden ze duidelijk maken dat Apple wel degelijk bezig is met geavanceerde oplossingen voor zelflerende systemen. Maar ze doen het wel op hun eigen manier. Apple gooit je niet dood met whitepapers en wetenschappelijke verhandelingen, maar stopt het stilletjes in producten, die daardoor opeens veel gebruiksvriendelijker zijn. Een goed voorbeeld is de Apple Pencil. Apple had moeite met het feit dat mensen hun handpalm op het scherm leggen tijdens het tekenen. Een machine learning-model voor het negeren van handpalmen bood de oplossing. Het scherm kan sindsdien veel beter onderscheid maken tussen een vingerveeg, een schermtik, een aanraking van de Pencil en het neerleggen van je handpalm. Dat de Apple Pencil zo heerlijk in gebruik is, is te danken aan machine learning.
Siri gaat in iOS 10 vloeiender spreken
Ook in iOS 10 kunnen we weer verbeteringen verwachten die te danken zijn aan machine learning en deep learning, bijvoorbeeld bij Siri. In plaats van losse woordjes die aan elkaar zijn geplakt gaat Apple het uitspreken wat vloeiender laten klinken, zodat Siri meer klinkt als een echte persoon. Misschien verklaart dit ook meteen de opzienbarende uitspraak van Barbra Streisand, die beweerde dat Apple op 30 september een update uitbrengt, die ervoor zorgt dat haar achternaam goed wordt uitgesproken. Misschien had ze het niet over iOS 10 (zoals veel mensen dachten), maar gaat het om een Siri-update die op 30 september stilletjes wordt uitgerold.
Het volledige interview met Eddy Cue, Craig Federighi, Phil Schiller en andere Apple-topmensen vind je op Backchannel.
Taalfout gezien of andere suggestie hoe we dit artikel kunnen verbeteren? Laat het ons weten!
Het laatste nieuws over Apple van iCulture
- Kijk nu de documentaire 'Theft, Death, and Steve Jobs' op YouTube (16-12)
- Deze Chinese autofabrikant maakt meer dan 30 procent van alle iPads - en rukt steeds verder op (02-12)
- Getest: de nieuwe gehoorfuncties op de AirPods Pro (21-10)
- iCulture peilt: wat was jouw favoriete aankondiging van het september-event? (12-09)
- 'Wachtwoorden van Vision Pro-gebruikers waren te achterhalen' (12-09)
Reacties: 15 reacties