iPhone 11 будет мощнее ноутбуков

Джейсон Кросс из Macworld рассказал, чего реально стоит ждать от процессора A13 в iPhone 11. Новые процессоры будут построены по 7-нанометровому техпроцессу, так как 5-нм чипы просто не будут готовы в срок. Кросс полагает, что Apple будет использовать то же количество транзисторов, что и в A12X Bionic.

Причём компания не станет наращивать количество производительных ядер: их будет 2, как и в текущих процессорах. Плюс 4 энергосберегающих.

Apple, вероятно, будет полагаться на некоторые архитектурные изменения и, возможно, лучшие пиковые тактовые частоты для увеличения производительности процессора. В конце концов, чипы компании уже являются самыми быстрыми.

В последние годы прирост производительности процессоров Apple в одноядерном режиме был достаточно стабильным. Если тенденция сохранится, мы увидим оценку в Geekbench 4 в районе 5200.  — Джейсон Кросс

Многоядерную производительность прогнозировать сложнее, но она может достигать 15-16 тыс. очков. Тем самым, мы получаем мобильный процессор, обгоняющий по производительности любой Android-смартфон и большинство ультрабуков.

С другой стороны, GPU в новых айфонах не станет намного мощнее из-за ограничений пропускной способности. Так что новые чипы от Qualcomm могут опередить A13.

Но Apple может сделать упор не на графических возможностях, а перенаправить остаточные мощности в искусственный интеллект.

Кросс уверен, что компания намерена продолжать активно работать в направлении машинного обучения и обработки изображений.

В прошлом году Apple сделала Neural Engine в A12 намного мощнее, чем ожидалось.

Neural Engine в процессоре A11 может выполнять 600 миллиардов операций в секунду. A12 оказался примерно в восемь раз быстрее: 5 триллионов операций в секунду.

Я не уверен, что мы увидим столь большой скачок снова, но Apple вполне может добиться увеличения производительности в 3-5 раз благодаря некоторым улучшениям технического дизайна и гораздо большим бюджетом транзисторов.

Машинное обучение и искусственный интеллект – важнейшие составляющие iPhone: они используются от создания лучших фотографий и видео до дополненной реальности и Siri. Если бы Apple объявила, что Neural Engine в A13 может выполнять 20 триллионов операций в секунду, я был бы впечатлен, но не удивлен.

Процессор сигналов изображения, используемый для обработки данных с датчиков камеры, является еще одним критически важным компонентом, который сложно оценить, но Apple ежегодно вкладывает в него огромные средства.

Он используется в сочетании с Neural Engine и GPU для улучшения качества фотографий и видео. Apple улучшит его снова в этом году. Возможно, компания даже будет одной из первых, кто включит аппаратное обеспечение для кодирования и декодирования видеокодека AV1.

Если вы не знаете, что все это значит, просто знайте, что большинство видео в интернете (например, в YouTube), вероятно, перейдут на этот формат через пару лет. Он чрезвычайно эффективен.

Apple в последние годы делает большую ставку на нейросетях и машинном обучении. Вполне вероятно, что компания продолжит двигаться в этом направлении, делая iPhone умнее во всех аспектах. Источник