Компания Apple намерена представить первое отдельное приложение Siri в составе новых операционных систем iOS 27 и macOS 27, о чём сообщает Марк Гурман (Mark Gurman) из Bloomberg. Презентация запланирована на июнь, скорее всего, в рамках конференции WWDC 2026.
Источник изображения: macrumors.com
Согласно данным, представление нового виртуального помощника претерпит значительные изменения. В тестируемой версии интерфейс Siri размещён в верхней части экрана в области Dynamic Island, после активации которого пользователь увидит строку с предложением «Искать или спросить» (Search or Ask). В момент обработки запроса появится индикатор с надписью «Поиск» (Searching) и светящаяся иконка Siri. Когда ответ будет готов, интерфейс масштабируется в увеличенную полупрозрачную панель, выполненную в стиле Liquid Glass. Для начала диалога пользователю достаточно прокрутить меню вниз.
Ранее стало известно о партнёрском соглашении с компанией Google по использованию Gemini для работы Siri и Apple Intelligence. Об этой возможности было рассказано на мероприятии WWDC 2024, однако идея была отложена за пределы цикла обновления iOS 18. После релиза iOS 26.4 появление первых функций на базе новых технологий ожидается в версии 26.5.
В дополнение к новому приложению Apple планирует подключение Siri через переключатель «Спросить Siri» (Ask Siri). Ещё будет добавлена более продвинутая функция для работы с текстом «Написать с Siri» (Write with Siri). Новый интерфейс, по словам Гурмана, будет визуально и функционально напоминать интерфейс современных ИИ-чат-ботов и приложение «Сообщения». Ожидается, что официальный анонс iOS 27 и macOS 27, в котором прозвучат более полные детали о работе ассистента, состоится в 8 июня.
Проблемы c модернизацией голосового помощника Siri и развитием искусственного интеллекта в экосистеме Apple продолжают оказывать негативное влияние на кадровый состав. Компанию покинул Брайан Линч (Brian Lynch), занимавший пост старшего директора по разработке устройств для дома. Об этом сообщает HotHardware со ссылкой на информацию Марка Гурмана (Mark Gurman) из Bloomberg.
Источник изображения: hiyue/Unsplash
Линч, проработавший в компании долгие годы и участвовавший в создании нескольких поколений плееров iPod, переходит в Oura Health — компанию, которая разрабатывает популярное смарт-кольцо Oura для мониторинга здоровья. В Oura он займёт должность вице-президента по аппаратной части. По информации Гурмана, этот уход «привносит новые потрясения» в подразделение, которое и так испытывает трудности с закреплением на рынке умных устройств для дома.
Ситуация осложняется тем, что именно это подразделение ведёт разработку двух перспективных продуктов. Первый представляет собой настольного робота с дисплеем, дизайн которого напоминает культовый iMac G4. Второй проект — это дисплей, похожий на iPad, который можно крепить к динамику или вешать на стену. Ключевая особенность обоих устройств состоит в том, что их управление должно строиться на естественном языке с помощью продвинутой версии Siri. Однако Apple до сих пор не удалось довести голосового помощника до состояния, при котором он мог бы стать основой для таких сложных продуктов.
Выходом из ситуации может стать недавнее партнёрство с Google. В этом году Apple объявила о масштабной сделке, в рамках которой Google предоставит свои модели Gemini для обучения персональной системы искусственного интеллекта Apple Intelligence, включая Siri. Если интеграция пройдёт успешно, цифровой ассистент получит серьёзное обновление в обозримом будущем. Однако эксперты предупреждают: даже если использование наработок Google не решит проблем с развитием ИИ и Siri, Apple вряд ли сможет остановить отток ведущих специалистов.
Юбилейный для Apple год обещает быть богатым на новинки, как подчёркивает само руководство компании, но неофициальные источники в лице Bloomberg традиционно делятся не самыми приятными для этого производителя новостями. Как ожидается, промедление с совершенствованием голосового ассистента Siri вызовет и отсрочку выхода умного дисплея для дома, который всё ещё планируется представить в этом году.
Источник изображения: Apple
Как поясняет известный колумнист издания Марк Гурман (Mark Gurman), первоначально устройство для экосистемы умного дома под условным обозначением J490 должно было дебютировать весной 2025 года, а затем сроки были смещены на март текущего, но и они оказались не окончательными. Выпуск такого устройства с дисплеем и поддержкой голосового ассистента Siri теперь отложен на сентябрь, причём дебют новой версии этого ИИ-помощника состоится тогда же. Дисплей понадобится устройству для более эффективного взаимодействия с пользователем в рамках управления экосистемой умного дома. Чисто технически, устройство было готово к дебюту ещё несколько месяцев назад, но без адекватного по своим возможностям варианта Siri выводить его на рынок компания не готова.
Внешне устройство J490 будет напоминать 7-дюймовый планшет с квадратным соотношением сторон, установленный либо на полусферической базе с динамиком, либо на стене. Оно должно стать центром управления умным домом. Интерфейс новинки будет напоминать о принципах взаимодействия с Apple Watch — пользователь будет пролистывать сменяющие друг друга иконки приложений. Распознавание конкретного пользователя в лицо будет позволять подгружать специфические настройки и данные, необходимые устройству для взаимодействия с ним. В качестве операционной системы J490 будет использовать адаптированную версию Apple tvOS 27, которая ведёт свою родословную от телевизионной приставки Apple TV. Если бы не задержка с выходом Siri в новом варианте, то J490 могла бы довольствоваться операционной системой tvOS 26.
Попутно Apple разрабатывает и целый спектр носимых устройств с поддержкой ИИ: подвеску, оснащённые камерами беспроводные наушники AirPods и умные очки. Они должны появиться уже после того, как дебютирует обновлённая версия голосового интерфейса Siri. Сейчас Apple поставила перед ответственными сотрудниками довести до ума Siri к моменту выхода iPhone 18 Pro в сентябре этого года. На уровне интерфейса взаимодействие с Siri будет больше напоминать работу с популярными сейчас чат-ботами.
Помимо варианта J490 с квадратным семидюймовым дисплеем, к следующему году Apple надеется представить устройство с более крупным 9-дюймовым дисплеем на выносном манипуляторе. Компания также разрабатывает датчик для бытовой охранной системы, которая будет интегрироваться в фирменную экосистему умного дома. В планах Apple также значится выпуск колонки HomePod без дисплея и обновлённой приставки Apple TV, которые будут полагаться на возможности новой версии Siri. Телевизионная приставка Apple TV не обновлялась на аппаратном уровне с 2022 года, но в прошлом году получила новый интерфейс Liquid Glass в ходе программного обновления. Хотя основные конкуренты типа Amazon и Google опережают Apple в темпах освоения рынка устройств для умного дома, последнюю из компаний сильно поддерживает пользовательская база, насчитывающая 2,5 млрд человек.
Apple столкнулась с неэффективностью собственной облачной инфраструктуры Private Cloud Compute, предназначенной для обработки ИИ-запросов. Мощность серверов, специально предназначенных для этих целей, в среднем используются лишь на 10 %, а часть оборудования пылится на складах.
Источник изображения: Apple
По данным 9to5Mac, которые ссылаются на издание The Information, Apple обратилась к Google с просьбой о размещении своих новых моделей Siri на её серверах, так как фрагментация внутренних систем, при которой разные команды Apple работают с изолированными технологическими стеками, не позволяет гибко перераспределять ресурсы. Одновременно финансовый отдел выражает недовольство растущими затратами на дублирующую инфраструктуру и пока не желает вкладывать миллиарды в её перестройку.
Технически платформа также отстаёт: модифицированные процессоры M2 Ultra не обеспечивают той производительности, которая необходима для запуска больших языковых моделей (LLM), а обновления программного обеспечения требуют значительных усилий и времени. На этом фоне низкий пользовательский интерес к функциям Apple Intelligence усилил сомнения в целесообразности дальнейшего развёртывания собственных дата-центров.
Apple обратилась к Google с просьбой о размещении своих новых моделей Siri на её дата-центрах, поскольку собственная инфраструктура Private Cloud Compute не справляется с тяжёлыми задачами, а Google, напротив, уже имеет большой опыт массового развёртывания серверов для LLM благодаря проекту Gemini.
Apple отказалась от использования ИИ-модели Claude от компании Anthropic для модернизации Siri и вместо этого заключила сделку с Google. Anthropic запросила за интеграцию ИИ несколько миллиардов долларов в год, но помимо этого настаивала на удвоении суммы контракта ежегодно в течение трёх лет, передаёт AppleInsider со ссылкой на пост журналиста Bloomberg Марка Гурмана (Mark Gurman).
Источник изображения: omid armin/Unsplash
Сообщается, что сделка с Google может оцениваться примерно в $1 млрд в год, что значительно меньше запроса разработчика Claude. Для сравнения, сама Google ежегодно выплачивает Apple около $20 млрд за статус поисковой системы по умолчанию. Гурман отметил, что, несмотря на срыв сделки, Apple активно использует технологии Anthropic внутри компании и на её серверах работают кастомные версии Claude.
Сотрудничество Apple с другими ИИ-компаниями не ограничится Gemini. В странах, где действуют особые регуляторные требования, например в Китае, Siri будет использовать местные ИИ-модели. Кроме того, Apple продолжает сотрудничество с OpenAI, чья модель ChatGPT обеспечивает работу текущих функций Apple Intelligence, и в будущем пользователям предоставят возможность выбора ИИ-моделей в соответствии с их предпочтениями. Однако в перспективе Apple намерена полностью перейти на собственные программные разработки, на которые в конце 2025 года были направлены рекордные расходы на НИОКР, что говорит о том, что этот переход может произойти довольно скоро.
Не так давно Apple и Google объявили о подписании нового партнёрского соглашения, в рамках которого ИИ-модели семейства Gemini станут основой для голосового помощника Siri, но будут функционировать на базе собственной инфраструктуры производителя iPhone. Теперь же журналист Bloomberg Марк Гурман (Mark Gurman) сообщил, что первые результаты партнёрства компаний можно будет увидеть с выходом iOS 26.4 в следующем месяце.

В сообщении сказано, что Apple планирует в той или иной мере продемонстрировать публике работу фирменных ИИ-функций. Гурман также поделился некоторыми любопытными подробностями о том, как возникло новое партнёрство между Apple и Google.
«Похоже, что сегодня Apple находится менее чем в месяце от того, чтобы раскрыть результаты этого партнёрства. Компания планирует анонсировать новую Siri во второй половине февраля, когда и продемонстрирует её функциональность. Пока неясно, будет ли это крупное мероприятие или более скромное, в формате контролируемого брифинга. Возможно, оно пройдёт в меди-пространстве Apple в Нью-Йорке. Так или иначе, Apple находится всего в нескольких неделях от того, чтобы наконец выполнить связанные с Siri обещания, которые были даны на конференции WWDC ещё в июне 2024 года», — говорится в сообщении Гурмана.
Появление новых ИИ-функций в iOS 26.4 должно сделать Siri более осведомлённой о происходящем на экране пользовательского устройства. Она будет знать больше о самом владельце устройства, а также сможет выполнять разные действия в приложениях от имени пользователя. Модели Gemini, обеспечивающие работу этих функций в системе Private Cloud Compute, внутри компании носят название Apple Foundation Models v10. В их основе большая языковая модель с 1,2 трлн параметров. Однако это лишь первый этап внедрения новых функций и в iOS 27 Siri должна стать ещё более продвинутой.
На прошлой неделе Гурман писал, что Apple внедрит функции в стиле чат-бота по всей системе iOS 27, а также в macOS 27. Эти функции будут работать на основе алгоритмов Apple Foundation Models v11, и они должны быть близки в плане качества к Gemini 3. Журналист описал их, как «значительно более мощные, чем модели, поддерживающие Siri в iOS 26.4». Однако эти функции, вероятно, будут полагаться на инфраструктуру Google, переговоры по данному вопросу ещё ведутся.
В преддверии объявления о партнёрстве с Google в начале этого месяце Apple изучала несколько других возможных путей развития. По данным источника, производитель iPhone вёл переговоры с Anthropic и OpenAI, рассматривая их в качестве партнёров для обеспечения работы собственных ИИ-функций. Эти переговоры длились с середины прошлого года. В случае Anthropic стороны зашли в тупик в августе, поскольку ИИ-разработчик запросил «несколько миллиардов долларов в год в течение нескольких лет». Заключение сделки с OpenAI также оказалось невыгодным, поскольку разработчик ChatGPT активно переманивал у Apple специалистов по аппаратным продуктам с целью создания собственного устройства на базе ИИ.
После того, как суд признал, что партнёрство Apple и Google, в рамках которого поисковик последней используется по умолчанию в браузере Safari, не является незаконной, сделка по Gemini стала для Apple гораздо более привлекательной. В конечном счёте Apple и Google достигли договорённостей, в результате чего потребители уже в следующем месяце смогут оценить новые возможности Siri. Сейчас уже трудно испытывать энтузиазм по этому поводу, поскольку с момента первого анонса этих нововведений прошло более 1,5 лет.
В прошлом году Apple согласилась на выплату компенсации для урегулирования коллективного иска о «незаконной и намеренной» записи личных разговоров голосовым помощником Siri с целью передачи этой информации рекламодателям. Проблема берёт начало в 2019 году и с тех пор компания улучшила конфиденциальность Siri, но всё же согласилась на выплаты для урегулирования спора. Приём заявок проводился в середине прошлого года, а на этой неделе пользователи iPhone начали получать выплаты.
Источник изображения: Apple
Подать заявку на получение компенсации могли люди, купившие устройство Apple с Siri в период с 17 сентября 2014 года по 31 декабря 2024 года и столкнувшиеся с «непреднамеренной активацией Siri». Каждый такой пользователь мог заявить до пяти устройств. Хотя для урегулирования иска Apple выделила $95 млн, рассчитывая выплатить по $20 за устройство, т.е. не более $100 на пользователя, окончательные цифры составили $8,02 за устройство с максимальной выплатой $40,10.
Прямые переводы от Apple в рамках урегулирования этого иска начали поступать пользователям в конце этой недели. Вероятно, в скором времени выплаты поступят всем пользователям, которые успели зарегистрироваться в отведённый для этого период. Тем же, кто выбрал в качестве компенсации подарочные карты предоплаты, следует ждать поступления соответствующего уведомления по электронной почте.
Обычно голосовые помощники активируются с помощью специальных команд, например, «Привет, Siri». Однако в данном случае голосовой помощник активировался самопроизвольно. В результате этого даже случайно упоминаемые в разговорах бренды в дальнейшем всплывали в таргетированной рекламе. Судя по размеру выплат, подать заявку на них успели десятки миллионов владельцев устройств Apple, затронутых проблемой.
Apple превратит голосового помощника Siri в чат-бота, похожего на ChatGPT, и представит обновлённую версию в составе iOS 27 на конференции разработчиков WWDC в июне 2026 года. Об этом сообщил TechCrunch со ссылкой на журналиста Марка Гурмана (Mark Gurman) из Bloomberg.
Источник изображения: Grok
Новый вариант Siri получил внутреннее кодовое имя Campos и будет поддерживать как голосовой, так и текстовый ввод. Ранее старший вице-президент Apple по программному обеспечению Крейг Федериги (Craig Federighi) заявлял, что не хочет превращать Siri в чат-бота, а предпочитает интегрировать искусственный интеллект в систему так, чтобы он «был под рукой только в тот момент, когда он нужен». Однако, по данным Гурмана, компания изменила свои планы под давлением успеха чат-ботов других технологических компаний.
Дополнительным фактором, подтолкнувшим Apple к активным действиям, могла стать потенциальная угроза со стороны OpenAI, поскольку та планирует выйти на рынок аппаратного обеспечения под руководством бывшего главы дизайна Apple Джони Айва (Jony Ive) и уже планирует представить свой первый ИИ-гаджет в этом году.
Как отмечает TechCrunch, Apple отстаёт в гонке за лидерство в области искусственного интеллекта и уже не один раз откладывала выпуск более продвинутой версии Siri, а в прошлом году активно искала партнёра, тестируя технологии OpenAI и Anthropic. В итоге выбор пал на Gemini от Google, о чём было объявлено в начале января.
Известный аналитик Минг-Чи Куо (Ming-Chi Kuo) представил своё видение стратегии Apple в области искусственного интеллекта. Он считает, что недавнее соглашение с Google, связанное с интеграцией Gemini в Siri является для Apple вынужденным и временным шагом, который даст ей необходимое время для реализации собственных далеко идущих планов, ключевым элементом которых станут фирменные серверные чипы для ИИ и полностью контролируемая инфраструктура.
Источник изображения: macrumors.com
Как пишет MacRumors, ссылаясь на слова Куо, Apple столкнулась с двумя неотложными проблемами, которые фактически вынудили её пойти на сделку с конкурентом. Во-первых, компании необходимо продемонстрировать убедительные результаты на предстоящей в июне конференции WWDC после громких, но пока не реализованных анонсов Apple Intelligence и обновлённой Siri. Во-вторых, стремительный прогресс облачных систем поднял планку ожиданий пользователей на такой уровень, что простого выполнения старых обещаний уже может быть недостаточно для успеха.
Аналитик подчёркивает, что сделка с Google направлена на смягчение краткосрочного давления, а не на изменение долгосрочной стратегии. Он отметил, что в ближайшее время искусственный интеллект вряд ли станет ключевым драйвером продаж оборудования Apple, однако в перспективе он будет играть центральную роль в дифференциации устройств, проектировании ОС и формировании пользовательского опыта. Поэтому контроль над базовыми ИИ-технологиями остаётся для Apple приоритетом.
Согласно прогнозу Куо, массовое производство собственных серверных чипов Apple, ориентированных на задачи искусственного интеллекта, начнётся во второй половине 2026 года. Собственные дата-центры компании, предназначенные для обработки ИИ-нагрузок, должны заработать в 2027 году.
Apple планирует использовать специальную версию ИИ-модели Google Gemini для работы функций платформы Apple Intelligence. Компания будет ежегодно выплачивать Google около 1 миллиарда долларов за доступ к данной технологии, которая будет отвечать за генерацию текстовых сводок и выполнение задач, связанных с планированием.
Источник изображения: AI
По сообщению The Verge со ссылкой на публикацию Марка Гурмана (Mark Gurman) в Bloomberg, Apple развернёт модель Gemini на своих собственных серверах Private Cloud Compute, что соответствует политике компании по защите приватности пользователей, и одновременно продолжит использовать собственные наработки для обеспечения работы функций ИИ-ассистента Siri. Как уточняет Гурман, используемая версия Gemini будет содержать 1,2 триллиона параметров, что значительно превосходит 150 миллиардов параметров, заложенных в облачную версию Apple Intelligence, разработанную непосредственной компанией Apple.
Решение о сотрудничестве с Google было принято после задержки запуска обновлённого Siri и рассмотрения альтернатив, в том числе моделей OpenAI и Anthropic. Однако этот контракт не связан с планами Apple интегрировать в Siri чат-бот Gemini в качестве дополнительного стороннего инструмента, аналогично уже интегрированному ChatGPT.
На прошлой неделе генеральный директор Apple Тим Кук (Tim Cook) сообщил инвесторам, что обновлённая версия Siri появится весной следующего года, а также не исключил дальнейших интеграций с ИИ сторонних разработчиков. Тем не менее, по данным Bloomberg, Apple продолжает развивать собственные ИИ-технологии с намерением в перспективе заменить ими сторонние решения, включая Gemini.
Компания Apple продолжает работу над масштабным обновлением голосового помощника Siri. Согласно данным Марка Гурмана (Mark Gurman) из Bloomberg, Siri будет использовать возможности искусственного интеллекта (ИИ) Google Gemini. Об этом сообщило издание MacRumors.
Источник изображения: macrumors.com
В своём дайджесте Power On Гурман пишет, что вместе с новой Siri компания намерена выпустить на рынок обновлённый дисплей для умного дома с возможностью настольного и настенного размещения. Кроме того, в ближайшее время ожидается появление нового Apple TV и HomePod mini, которые, по словам аналитика, «помогут продемонстрировать» функции Siri и платформы Apple Intelligence, запланированные к запуску в 2026 году.
Обновлённый ИИ-ассистент будет использовать технологию Google Gemini. При этом, как поясняется, речь не идёт о включении сервисов Google или функций Gemini в интерфейс пользователя. Вместо этого Apple заплатит Google за создание специализированной версии модели Gemini, которая будет работать на облачных серверах Private Cloud Compute компании Apple и обеспечивать работу своего ИИ с сохранением характерного для Apple пользовательского интерфейса. Гурман также отметил, что пока неясно, как примут пользователи новую версию Siri, будет ли она работать без сбоев и сможет ли восстановить к себе доверие.
В рамках развития платформы Apple Intelligence компания представит обновлённые версии iOS 27, macOS 27, watchOS 27 и другие операционные системы на ежегодной Всемирной конференции разработчиков в июне. Ожидается, что ключевым фокусом этих обновлений станут масштабные улучшения в области движка искусственного интеллекта и реализация общей ИИ-стратегии Apple.
Одновременно с этим Apple продолжает сталкиваться с трудностями при запуске Apple Intelligence в Китае. Несмотря на сотрудничество с местными компаниями, проект задерживается из-за регуляторных сложностей, и сроки его выхода на китайский рынок, по информации того же Гурмана, остаются неясными.
Во Франции начали уголовное расследование деятельности Apple, которую обвинили в использовании подрядчиков для прослушивания голосовых записей взаимодействия пользователей с Siri, несмотря на обещание соблюдать конфиденциальность, пишет агентство Bloomberg. Расследование началось после заявления правозащитной организации Ligue des droits de l’Homme.
Источник изображения: Apple
Жалоба правозащитной организации основана на показаниях Томаса ле Боньека (Thomas le Bonniec), бывшего субподрядчика Apple в Ирландии, который публично заявлял о проведении анализа конфиденциальных записей пользователей, в том числе онкологических больных.
О том, что сторонние подрядчики Apple прослушивали аудиозаписи взаимодействия с Siri для анализа с целью повышения качества сервиса, сообщил в 2019 году ресурс The Guardian. Источником ресурса был подрядчик, который занимался «оценкой» Siri. Информатор тогда сообщил, что «подрядчики Apple регулярно прослушивают конфиденциальную медицинскую информацию» в рамках своей работы «по контролю качества» голосового помощника Siri.
В ответ Apple приостановила программу, предоставив клиентам возможность отказаться от использования этой опции. Затем компания стала добавлять опцию только в случае явного согласия пользователя, а не его отказа. Тем не менее после этого был подан коллективный иск, и Apple согласилась выплатить компенсацию пользователям.
В январе Apple заявила в блоге, что «не сохраняет аудиозаписи взаимодействия с Siri, если только пользователи явно не соглашаются на это, чтобы помочь улучшить Siri, и даже в этом случае записи используются исключительно для этой цели».
Казалось бы, инцидент исчерпан, и остаётся неясным, почему спустя столько лет после происшествия во Франции решили вернуться к былому нарушению Apple.
Пользователи Apple подали к компании коллективный иск, обвинив её в задержке обещанных ИИ-функций для ассистента Siri. Истцы утверждают, что приобрели iPhone 16, полагаясь на обещанные, но так до сих пор и не реализованные возможности на базе искусственного интеллекта. Однако юристы Apple подали ходатайство в Окружной суд Северного округа Калифорнии (США) с просьбой о полном отклонении иска, аргументируя это отсутствием оснований для претензий.
Источник изображения: Phone Trailers/YouTube
Представители компании заявили, что задержка выпуска всего двух функций из всего пакета Apple Intelligence, таких как анализ личного контекста и элементы управления внутри приложения, не может быть поводом для столь масштабных требований. Они отметили, что истцы жалуются на сроки появления двух ИИ-функций, несмотря на то что почти два десятка других, включая «Инструменты для письма», Genmoji, «Приоритетные уведомления» и прочие, уже доступны пользователям. В юридическом документе также указывается, что на момент подачи иска владельцы iPhone 16 уже получили выгоду от улучшенной камеры, более производительного чипа, обновлённых дисплеев и множества других аппаратных и программных улучшений.
Адвокаты Apple подчеркнули, что компания с самого начала чётко дала понять: дополнительные функции Apple Intelligence будут выпускаться поэтапно и продолжат развиваться. Компания отвергла утверждения о нарушении гарантийных обязательств. Ранее, в июле, генеральный директор Apple Тим Кук (Tim Cook) сообщил, что Apple добилась прогресса в работе над Siri и планирует выпустить обновление в следующем году.
Напомним, первоначально персонализированные функции Siri были анонсированы на конференции WWDC 2024, но позднее их выход был отложен. Как указывает MacRumors, Apple обещала выпустить эти опции в составе iOS 26.4 в марте или апреле 2025 года.
Иск был подан после масштабной рекламной кампании Apple, которая продвигала новые способности Siri в презентациях, на своём сайте и в телевизионной рекламе с участием актрисы Беллы Рамзи (Bella Ramsey).
Компания Apple готовит к выпуску собственный генеративный ИИ-движок для поиска и генерации ответов, который может дебютировать уже через шесть месяцев в составе обновлённой версии Siri. По сообщению 9to5Mac со ссылкой на Марка Гурмана (Mark Gurman) из Bloomberg, новый инструмент, известный внутри компании под кодовым названием World Knowledge Answers (WKA), создаётся как конкурент Perplexity и ChatGPT.
Источник изображения: сгенерировано AI
Первоначально функция будет доступна исключительно через переработанный интерфейс Siri, а в дальнейшем может быть интегрирована в браузер Safari и поисковую систему Spotlight. При этом внутри Apple продолжается тестирование технологии искусственного интеллекта (ИИ), в ходе которого выяснится, будут ли в основе нового поколения Siri использоваться собственные ИИ-алгоритмы компании или же технологии от внешних партнёров — таких как Google, Anthropic или OpenAI.
Несмотря на то, что разработка продукта началась лишь несколько месяцев назад, выбор партнёров не повлияет на сроки запуска нового Siri на собственном движке WKA, что, вероятно, произойдёт в марте 2026 года.
Компании Apple приходится подтягивать функциональные возможности всех своих программных решений с учётом актуальных тенденций в развитии искусственного интеллекта, но не везде у неё хватает для этого собственных сил. В следующем году она намеревается представить поисковый инструмент, усиленный ИИ и одновременно интегрированный с голосовым ассистентом Siri.
Источник изображения: Apple
По замыслу компании, как отмечает Bloomberg, такая комбинация решений должна позволить Apple лучше конкурировать с OpenAI и Perplexity. Рабочее название новой поисковой системы — World Knowledge Answers, что в переводе на русский примерно означает «ответы из мировой базы знаний». Данную систему также планируется интегрировать с браузером Safari и Spotlight. Дебютировать она должна весной следующего года вместе с очередным обновлением Siri.
Для работы с поисковыми системами Apple в этом случае планирует использовать большие языковые модели по примеру конкурентов. Технологическим партнёром Apple в этой сфере может выступить Google. По крайней мере, за модернизацию голосового ассистента Siri будет отвечать именно эта компания. Для поиска нужной информации можно будет использовать текстовые запросы, фото, видео и геопозицию локальных достопримечательностей, и даже содержимое экрана смартфона. Искусственный интеллект будет выдавать более удобоваримую выжимку из результатов поискового запроса. В нынешнем виде Siri не справляется с обработкой сложных запросов, которые пользователи уже привыкли формировать при взаимодействии с чат-ботами на базе ИИ. Новая версия Siri сможет поддерживать последовательность взаимосвязанных запросов, позволяющих уточнять результаты поиска.
Суд недавно разрешил Apple продолжить использование поисковых сервисов Google в качестве назначенных по умолчанию на своих устройствах. Это формирует основу для дальнейшего сотрудничества между компаниями и снижает актуальность разработки Apple собственного поискового движка. Siri с расширенными поисковыми возможностями должна дебютировать к марту следующего года, вместе с выходом iOS 26.4.
Структурно новая версия Siri получит обновлённый планировщик, поисковую подсистему и новый блок обобщения информации. Последний может быть построен на адаптированной версии Google Gemini. В случае с планировщиком партнёром Apple может выступить как Google, так и Anthropic, причём сохраняется и вариант с решением собственной разработки. Поиском данных Apple пока намерена в этой связке заниматься самостоятельно, во многом из соображений информационной безопасности. При выборе между Google и Anthropic первая остаётся более вероятным кандидатом, поскольку предлагает более выгодные Apple финансовые условия сотрудничества. Не снимаются с повестки дня и возможные поглощения других компаний, которые пригодились бы Apple хотя бы с точки зрения восполнения собственных кадровых потерь.
Вместе с обновлением Siri в следующем году голосовой интерфейс получит новый внешний вид. Попутно будет обновлено приложение для отслеживания состояния здоровья пользователя. Домашняя электроника Apple обзаведётся более развитыми способностями в сфере голосового взаимодействия с человеком.