Содержание
Apple разрабатывает AI smart glasses без дисплея, где основной способ управления — жесты рук. По данным MacRumors, в прототипах делают ставку на две камеры: одна снимает фото и видео, вторая следит за руками и даёт картинку для Siri.
Идея простая: когда у устройства нет экрана, логичнее всего управлять им жестами и голосом. Похоже, Apple ровно в эту сторону и копает.
Две камеры и жесты как главный интерфейс
В текущей концепции у очков будет две камеры с разными задачами. Высококачественная камера нужна для фото и видео — их можно будет шарить в соцсетях и хранить как обычные снимки с iPhone. Вторая камера проще: это низкоразрешённый широкоугольный модуль, который считывает жесты рук и даёт визуальный контекст для Siri.
Apple уже использует управление жестами в Vision Pro. И параллельно в слухах всплывает похожая логика для будущих AirPods Pro: им тоже приписывают низкоразрешённые камеры и поддержку жестов. Если это сложить, видно направление: Apple хочет унифицировать жесты как «кнопки», когда экрана рядом нет.
Почему в первой версии не будет дисплея, LiDAR и 3D-камер
Первое поколение AI-очков, по этой информации, выйдет без дисплея. И это не «жадность», а инженерная математика по батарее: экран, LiDAR, 3D-камеры и похожие штуки слишком прожорливы по энергии для форм-фактора очков.
Ключевое ограничение — время работы. Apple нужно удержать очки тонкими и лёгкими, а размер батареи тут главный «бутылочный горлышко». Поэтому компания, судя по всему, сознательно режет функциональность до того, что реально можно питать от компактного аккумулятора.
При этом в более поздних версиях дисплей для AR-функций всё же рассматривают. Но это история не про первую итерацию.
Материалы оправы и функции на уровне Meta Ray-Ban
По данным MacRumors, Apple тестирует несколько вариантов дизайна и планирует использовать ацетат. Это лёгкий материал на растительной основе, который гибче типичного пластика. Для очков это важно: меньше вес, проще посадка, выше шанс, что их будут носить каждый день.
По набору функций Apple целится в нишу Meta Ray-Bans. Очки должны уметь:
- Фото: съёмка и сохранение снимков
- Видео: запись роликов
- Звонки: совершение телефонных вызовов
- Siri: ответы на вопросы о том, что вокруг пользователя
Ключевой софт-кирпичик тут — «умная» версия Siri, которую Apple планирует привязать к iOS 27. То есть очки завязаны не только на железо, но и на следующий виток ассистента.
По срокам картина такая: очки могут показать позже в 2026 году, а запуск намечают на 2027 год — хотя не исключён сценарий, где анонс случится только в 2027-м. Обсуждение утечки уже появилось на форуме: .