Mindenki nagyon izgatott az iOS 18-cal kapcsolatban, hiszen rengeteg új, hasznos funkcióval bővül majd az iPhone operációs rendszere. A baj viszont az, hogy hiába támogatja majd rengeteg modell ezt a verziót, alig néhány tudja majd csak futattni a leghasznosabb újdonságokat, többek között a mesterséges intelligencia nyújtotta kényelmi funkciókat.
Arra a kérdésre, hogy miért nem lesz elérhető az Apple Intelligence a régebbi iPhone-okon, a vállalat eddig azt válaszolta, hogy a chip-ek egyszerűen nem voltak elég erősek ahhoz, hogy jó élményt nyújtsanak.
Sokan azonban azt adták erre válaszul, hogy ha a telefonjaik nem felelnek meg a feladatnak, miért nem használják egyszerűen az Apple Intelligence szervereit – más néven Private Cloud Compute-ot? Elvégre ez már ma is így történik sok Siri-kérésnél. Most már erre is van válaszunk …
John Gruber beszélt erről az Apple-lel
Az egyik kérdés, amit többször is feltettem, hogy miért nem tudnak azok a készülékek, amelyek nem jogosultak az Apple Intelligence szolgáltatásra, egyszerűen mindent a Private Cloud Compute-on keresztül csinálni. Mindenki megérti, hogy ha egy eszköz nem elég gyors vagy erős az eszközön belüli feldolgozáshoz. De miért nem használhatják a régebbi iPhone-ok egyszerűen a Private Cloud Compute-ot mindenre?
Amennyire én tudom, az Apple Intelligencia egyszerűen nem így működik. Az eszközön futó modellek teljesen más modellek, mint a felhőben futók, és az egyik ilyen eszközön futó modell az a “heurisztika”, amely meghatározza, hogy mely feladatok végezhetők el az eszközön történő feldolgozással, és melyekhez van szükség Private Cloud Compute-ra vagy ChatGPT-re.
Gruber elismeri, hogy valószínűleg nem ez az egyetlen ok; az Apple-nek már most is rengeteg szerveroldali számítást kell biztosítania az olyan kérések kezeléséhez, amelyek nem dolgozhatók fel az eszközön, és a szerverigény masszívan nagyobb lenne, ha a régebbi telefonok összes kérését kezelni kellene. De a megadott ok hihetőnek tűnik.
Egy másik meglepő felfedezés, hogy az Apple Intelligence-t nem fogja támogatni a Vision Pro, annak ellenére, hogy az M2 chip elég erős ahhoz, hogy ezt megtegye. Gruber szerint ennek az az oka, hogy a chip már most is közel a kapacitás határán fut, így nincs elég szabad kapacitása az Apple Intelligence számára.
Jól értesült források szerint a Vision Pro már most is jelentős mértékben használja az M2 Neural Engine-jét, hogy kiegészítse az R1 chipet valós idejű feldolgozási célokra – okklúzió- és objektumfelismerés, ilyesmik. Az M-sorozattal felszerelt Mac-ek és iPadek esetében a Neural Engine gyakorlatilag ott ül, teljes mértékben rendelkezésre áll az Apple Intelligence funkciói számára. A Vision Pro esetében ez már használatban van.
A magyarázatnak ismét van értelme, bár nagy kár, mivel a platform szinte mesterséges intelligenciára szabottnak tűnik – és egy esetleges Apple Glasses termék előfutára, amely biztosan tartalmazni fogja az Apple Intelligence-t.
Egy másik részlet Gruber körképéből: Készülj fel arra, hogy következetesen bosszankodni fogsz a ChatGPT-nek való átadáshoz szükséges engedélykérés miatt. Legalábbis az Apple belső verzióiban a dolgok jelenlegi állása szerint nincs “Mindig megengedem” vagy “Ne kérdezz rá többet” opció.
Forrás – 9to5Mac