Перейти к содержанию

iPad 3


Lacoste

Рекомендуемые сообщения

Lacoste, ARM ничего не делает, ага :) tegra 3 имеет 4 честныя ядра CPU + 1 ядро-компаньон. A5X имеет 2 честных ядра CPU и все. Ядра GPU не считают и не считали.

Причем тут tegra 3? Mali-400 MP от ARM автономный GPU и не зависит от CPU в отличии от решения tegra 3, где 4 основных ядра CPU, одно энергосберегающее ядро CPU и 12 "ядерный" GPU, но это все в ОДНОМ решении, как у Apple - У них 2 ядерный CPU и 4х ядерный GPU в одном решении.

Ссылка на комментарий
Поделиться на другие сайты

И еще раз - при чем вообще ядра GPU? На Android устройствах производители не льют булшит в уши покупателей, рассказывая о ядрах GPU. Apple не осилил 4 ядра CPU, но делать-то что-то надо было - Tegra 3 имеет 4(5) ядра(ядер). Вот они и вспомнили, что когда-то давно действительно была писькомерка в виде ядер GPU. И схватились за нее.

А конкретно Mali-400 MP используется в Samsung Galaxy S II и является "уходом" от более популярных сейчас Power-VR и подобных. Т.е. раньше Power-VR, сейчас Mali

Ссылка на комментарий
Поделиться на другие сайты

И еще раз - при чем вообще ядра GPU?
При том, что кто то прочитал не так, что написано и начались обсуждения того, что мол оказывается в CPU от Apple не 4 ядра, а 2. Про 4 ядра шла речь о GPU в iPad. И все.

 

На Android устройствах производители не льют булшит в уши покупателей, рассказывая о ядрах GPU.

Может и не льют, не интересуюсь. Но у каждого свой путь.

 

Apple не осилил 4 ядра CPU, но делать-то что-то надо было - Tegra 3 имеет 4(5) ядра(ядер). Вот они и вспомнили, что когда-то давно действительно была писькомерка в виде ядер GPU. И схватились за нее.

Осилит в A6, они к нему и шли вместе с Palo Alto Semiconductor.

 

А конкретно Mali-400 MP используется в Samsung Galaxy S II и является "уходом" от более популярных сейчас Power-VR и подобных. Т.е. раньше Power-VR, сейчас Mali

Спасибо, я это знаю. Мое упоминание об этом GPU было ответом на твое:

Графические чипы имеют другие характеристики. У них "ядрами" называют блоки, которых OVER дофигища может быть. Эти блоки сами по себе совершенно ничего не значат.

Маркетаны в уши влили помои со своими ядрами в графическом ускорителе, а хомяки и повелись.

Вот тебе и шикарный пример GPU с чистыми 4 ядрами.

 

 

Apple плохая, Apple обижает. Кому какое дело, до чужих бабок то. А от Android уже блевать охото, от каждого его упоминания и сравнения с ним. Только одного не замечают, что аппараты с Android уже на полках становятся устаревшими, так как дыры в ОС не закрывают и зверье плодится. Хотя да, всем это выгодно. Такая забота о хомячках.

Ссылка на комментарий
Поделиться на другие сайты

При том, что кто то прочитал не так, что написано и начались обсуждения того, что мол оказывается в CPU от Apple не 4 ядра, а 2. Про 4 ядра шла речь о GPU в iPad. И все.

Посмотри бурления от фоннатофф, они же верят, что речь о CPU. На этом форуме я сразу сказал, что речь о GPU, но есть куча других форумов.

Может и не льют, не интересуюсь. Но у каждого свой путь.

Путь вранья? Мне он не нравится нигде, ни у одной компании.

Осилит в A6, они к нему и шли вместе с Palo Alto Semiconductor.

Не осилил в новейшей разработке для рынка, это главное. А "в будущем". Ну так они уже отстают, даже в будущем - Хуавей представила планшет на Тегра 3 с двумя гигами ОЗУ, к примеру.

Вот тебе и шикарный пример GPU с чистыми 4 ядрами.

Ну я снова повторю:

У них "ядрами" называют блоки, которых OVER дофигища может быть. Эти блоки сами по себе совершенно ничего не значат. 4 блока против 2-х ядер, это уже, строго говоря, на 100% больше, неплохой такой подъем. А главное, совершенно бессмысленный в плане производительности системы. Интересно это лишь с технической точки зрения. Примерно как 45 нм в процессоре. Вроде и прикольно, а на деле, главное чтобы было быстро, а сама технология не важна.

Ссылка на комментарий
Поделиться на другие сайты

Посмотри бурления от фоннатофф, они же верят, что речь о CPU. На этом форуме я сразу сказал, что речь о GPU, но есть куча других форумов.

Да и черт с ними, со всеми. Пусть бурлят и думают. Тут чуть ли не на каждом углу живут в розовых очках, уже не удивляешься и не обращаешь внимание. Если сами не допрут, до и другие им не помогут..

 

Путь вранья? Мне он не нравится нигде, ни у одной компании.

Твое мнение не учитывается. Мне тоже не нравится, и я это осуждаю. Но, блин, это бизнесс и у каждой конторы свои способы влияния на контенгент. Без этого нельзя.

 

Не осилил в новейшей разработке для рынка, это главное. А "в будущем". Ну так они уже отстают, даже в будущем - Хуавей представила планшет на Тегра 3 с двумя гигами ОЗУ, к примеру.

Да и черт с ним. Пусть отстают. Для них главное - лове капает, а на остальное класть.

 

Ну я снова повторю:

У них "ядрами" называют блоки, которых OVER дофигища может быть. Эти блоки сами по себе совершенно ничего не значат. 4 блока против 2-х ядер, это уже, строго говоря, на 100% больше, неплохой такой подъем. А главное, совершенно бессмысленный в плане производительности системы. Интересно это лишь с технической точки зрения. Примерно как 45 нм в процессоре. Вроде и прикольно, а на деле, главное чтобы было быстро, а сама технология не важна.

У кого у них то? Приводи конкретные примеры. Вот конретно у ARM так? Если да, пруфы в студию - и именно про ARM и именно про GPU. Причем пруфы на официальные источники, а не рассуждения дяди Васи на хабре.

Ссылка на комментарий
Поделиться на другие сайты

Apple врать не будут )

как-то не хочется теперь верить подобным утверждениям.

 

 

кстати, это был первый раз, когда Apple своих пользователей и потенциальных покупателей за идиотов держать начали?!

Изменено пользователем lombax
Ссылка на комментарий
Поделиться на другие сайты

Я так и думал, что ты даш ссылку на десктопные\для ноутбуков GPU и т.п. Я же тебе говорю именно о том GPU, о котором писал выше. В нем 4 ядра, а не 4 блока. Есть разные реализации.

 

http://en.wikipedia.org/wiki/Mali_%28GPU%29

 

кстати, это был первый раз, когда Apple своих пользователей и потенциальных покупателей за идиотов держать начали?!

Идиоты из себя сами идиотов делают. Никто не мешает таковыми быть.

Ссылка на комментарий
Поделиться на другие сайты

What you can see in this photo is that the GPU core is a scaled down version of what the CPU manufacturers would call ALU, or a functional unit.

 

Я так и думал, что ты даш ссылку на десктопные\для ноутбуков GPU и т.п.

 

 

В общем я тебе ссылку дал, название процессора привел. Зрячий да увидит.

 

P.S. Вот в довесок: http://www.arm.com/products/multimedia/mal...mali-400-mp.php изучай.

Ссылка на комментарий
Поделиться на другие сайты

Lacoste, я вижу, что ты дал ссылку, где говорится, что этот GPU первый мультиядерный от ARM, да. Это не отменяет того, что само понятие ядра в GPU не играет той роли, что в CPU.

Ссылка на комментарий
Поделиться на другие сайты

и еще одна статья с огорчающими фактами.

iPad 3: What we didn't get

:)

 

впрочем, новый экран может покрыть некоторые из них. а Сири могла бы оставшиеся компенсировать ;)

Ссылка на комментарий
Поделиться на другие сайты

Новый экран... Знаете, что меня удивляет? То, что его рассматривают под лупой, чтобы показать разницу относительно предыдущего. Извините, я редко работаю с планшетом, смотря сквозь лупу.

Ссылка на комментарий
Поделиться на другие сайты

Пожалуйста, войдите, чтобы комментировать

Вы сможете оставить комментарий после входа в



Войти
×
×
  • Создать...