Джейсон Кросс из Macworld рассказал, чего реально стоит ждать от процессора A13 в iPhone 11.
Новые процессоры будут построены по 7-нанометровому техпроцессу, так как 5-нм чипы просто не будут готовы в срок.
Кросс полагает, что Apple будет использовать то же количество транзисторов, что и в A12X Bionic.
iPhone 11 будет мощнее ноутбуков
Причём компания не станет наращивать количество производительных ядер: их будет 2, как и в текущих процессорах.
Плюс 4 энергосберегающих.

Apple, вероятно, будет полагаться на некоторые архитектурные изменения и, возможно, лучшие пиковые тактовые частоты для увеличения производительности процессора.
В конце концов, чипы компании уже являются самыми быстрыми.
В последние годы прирост производительности процессоров Apple в одноядерном режиме был достаточно стабильным.
Если тенденция сохранится, мы увидим оценку в Geekbench 4 в районе 5200.
— Джейсон Кросс

Многоядерную производительность прогнозировать сложнее, но она может достигать 15–16 тыс. очков.
Тем самым, мы получаем мобильный процессор, обгоняющий по производительности любой Android-смартфон и большинство ультрабуков.

С другой стороны, GPU в новых айфонах не станет намного мощнее из-за ограничений пропускной способности.
Так что новые чипы от Qualcomm могут опередить A13.
Но Apple может сделать упор не на графических возможностях, а перенаправить остаточные мощности в искусственный интеллект.
Кросс уверен, что компания намерена продолжать активно работать в направлении машинного обучения и обработки изображений.

В прошлом году Apple сделала Neural Engine в A12 намного мощнее, чем ожидалось.
Neural Engine в процессоре A11 может выполнять 600 миллиардов операций в секунду.
A12 оказался примерно в восемь раз быстрее: 5 триллионов операций в секунду.
Я не уверен, что мы увидим столь большой скачок снова, но Apple вполне может добиться увеличения производительности от 3-х до 5-ти раз благодаря некоторым улучшения технического дизайна и гораздо большим бюджетом транзисторов.

Машинное обучение и искусственный интеллект — важнейшие составляющие iPhone: они используются от создания лучших фотографий и видео до дополненной реальности и Siri.
Если бы Apple объявила, что Neural Engine в A13 может выполнять 20 триллионов операций в секунду, я был бы впечатлен, но не удивлен.
Процессор сигналов изображения, используемый для обработки данных с датчиков камеры, является еще одним критически важным компонентом, который сложно оценить, но Apple ежегодно вкладывает в него огромные средства.

Он используется в сочетании с Neural Engine и GPU для улучшения качества фотографий и видео.
Apple улучшит его снова в этом году.
Возможно, компания даже будет одной из первых, кто включит аппаратное обеспечение для кодирования и декодирования видеокодека AV1.
Если вы не знаете, что все это значит, просто знайте, что большинство видео в интернете (например, в YouTube), вероятно, перейдут на этот формат через пару лет.
Он чрезвычайно эффективен.

Apple в последние годы делает большую ставку на нейросетях и машинном обучении.
Вполне вероятно, что компания продолжит двигаться в этом направлении, делая iPhone умнее во всех аспектах.
pcnews.ru/