Deze verborgen AI-functie op je iPhone móét je proberen
Wist je dat je iPhone een verborgen AI-functie heeft? Je vindt hem in een app die je bijna nooit gebruikt, en je moet hem écht even proberen.
Lees verder na de advertentie
iPhone verborgen AI-functie
Hoewel artificiële intelligentie (AI) pas dit jaar echt een trend begint te worden, is Apple al jaren met de techniek bezig. In iedere iPhone sinds de iPhone 8 zit een zogenaamde Neural Engine, die speciaal ontworpen is om AI-taken uit te voeren. En die doet verrassend veel, zonder dat je het doorhebt.
Wekelijks Apple tips in je mail
kooptip
Maximale korting en dubbele data als je thuis internet van KPN hebt
Zo kun je in foto’s zoeken naar ‘hond’ om al je foto’s van honden te zien – dat komt door de Neural Engine die dat uit heeft zitten pluizen. Of wat dacht je van de mogelijkheid om achtergrondgeluiden weg te filteren tijdens een FaceTime-gesprek? Maar misschien nog wel de coolste AI-functie van de iPhone zit diep verborgen in een app die je bijna nooit gebruikt: Vergrootglas.
AI in Vergrootglas
In Vergrootglas is het namelijk mogelijk om slim objecten te herkennen met de functie ‘beeldbeschrijvingen’. Richt je iPhone ergens op, en je krijgt in tekst te zien waar je precies naar kijkt. De Vergrootglas-app detecteert verrassend veel verschillende objecten en omgevingen, en is dus echt de moeite waard om uit te proberen. Zo gebruik je het:
- Ga naar ‘Instellingen>Algemeen>Taal en regio’ en voeg Engels toe als voorkeurstaal. Zet deze vervolgens bovenaan het lijstje van voorkeurstalen met de handgreepjes rechts.
- Sta toe dat je iPhone opnieuw start. Dit duurt een paar seconden.
- Open nu de ingebouwde app ‘Magnifier’. Heb je die niet? Ga dan naar de App Store en installeer de app.
- Tik op het knopje met de vier hoekjes helemaal rechts in beeld als je een iPhone met LiDAR hebt (alle Pro-modellen sinds de iPhone 12 Pro), of op de knop met de tekstbubbel als je geen LiDAR hebt.
- Zorg er nu voor dat je beeldbeschrijving aan hebt staan (de knop met de tekstbubbel moet geel zijn) en richt je iPhone op een object of omgeving. Je krijgt direct een beschrijving te zien!
Met het tandwiel en ‘Image Descriptions’ kun je vervolgens nog instellen dat alles wat je ziet ook uitgesproken wordt door je iPhone. Dit is met name bedoeld voor mensen die slechtziend zijn.
Meer AI in je iPhone
Apple heeft stiekem nog veel meer AI-functies in je iPhone gebouwd. En bij iCreate ontdek je ze allemaal:
Dat doer Google Lens al jaren. Moet hier nu zo opgewonden over worden gedaan?
Google Lens gebruikt een neuraal netwerk van Google (en heeft dus altijd internet nodig), terwijl de functie in het artikel helemaal op de chip van de iPhone zelf draait. Het is dus echt andere techniek!