Lacoste Опубликовано 14 марта, 2012 Автор Share Опубликовано 14 марта, 2012 Lacoste, ARM ничего не делает, ага tegra 3 имеет 4 честныя ядра CPU + 1 ядро-компаньон. A5X имеет 2 честных ядра CPU и все. Ядра GPU не считают и не считали. Причем тут tegra 3? Mali-400 MP от ARM автономный GPU и не зависит от CPU в отличии от решения tegra 3, где 4 основных ядра CPU, одно энергосберегающее ядро CPU и 12 "ядерный" GPU, но это все в ОДНОМ решении, как у Apple - У них 2 ядерный CPU и 4х ядерный GPU в одном решении. Ссылка на комментарий Поделиться на другие сайты More sharing options...
Umnik Опубликовано 14 марта, 2012 Share Опубликовано 14 марта, 2012 И еще раз - при чем вообще ядра GPU? На Android устройствах производители не льют булшит в уши покупателей, рассказывая о ядрах GPU. Apple не осилил 4 ядра CPU, но делать-то что-то надо было - Tegra 3 имеет 4(5) ядра(ядер). Вот они и вспомнили, что когда-то давно действительно была писькомерка в виде ядер GPU. И схватились за нее. А конкретно Mali-400 MP используется в Samsung Galaxy S II и является "уходом" от более популярных сейчас Power-VR и подобных. Т.е. раньше Power-VR, сейчас Mali Ссылка на комментарий Поделиться на другие сайты More sharing options...
Lacoste Опубликовано 14 марта, 2012 Автор Share Опубликовано 14 марта, 2012 И еще раз - при чем вообще ядра GPU? При том, что кто то прочитал не так, что написано и начались обсуждения того, что мол оказывается в CPU от Apple не 4 ядра, а 2. Про 4 ядра шла речь о GPU в iPad. И все. На Android устройствах производители не льют булшит в уши покупателей, рассказывая о ядрах GPU. Может и не льют, не интересуюсь. Но у каждого свой путь. Apple не осилил 4 ядра CPU, но делать-то что-то надо было - Tegra 3 имеет 4(5) ядра(ядер). Вот они и вспомнили, что когда-то давно действительно была писькомерка в виде ядер GPU. И схватились за нее. Осилит в A6, они к нему и шли вместе с Palo Alto Semiconductor. А конкретно Mali-400 MP используется в Samsung Galaxy S II и является "уходом" от более популярных сейчас Power-VR и подобных. Т.е. раньше Power-VR, сейчас Mali Спасибо, я это знаю. Мое упоминание об этом GPU было ответом на твое: Графические чипы имеют другие характеристики. У них "ядрами" называют блоки, которых OVER дофигища может быть. Эти блоки сами по себе совершенно ничего не значат.Маркетаны в уши влили помои со своими ядрами в графическом ускорителе, а хомяки и повелись. Вот тебе и шикарный пример GPU с чистыми 4 ядрами. Apple плохая, Apple обижает. Кому какое дело, до чужих бабок то. А от Android уже блевать охото, от каждого его упоминания и сравнения с ним. Только одного не замечают, что аппараты с Android уже на полках становятся устаревшими, так как дыры в ОС не закрывают и зверье плодится. Хотя да, всем это выгодно. Такая забота о хомячках. Ссылка на комментарий Поделиться на другие сайты More sharing options...
Umnik Опубликовано 14 марта, 2012 Share Опубликовано 14 марта, 2012 При том, что кто то прочитал не так, что написано и начались обсуждения того, что мол оказывается в CPU от Apple не 4 ядра, а 2. Про 4 ядра шла речь о GPU в iPad. И все. Посмотри бурления от фоннатофф, они же верят, что речь о CPU. На этом форуме я сразу сказал, что речь о GPU, но есть куча других форумов. Может и не льют, не интересуюсь. Но у каждого свой путь. Путь вранья? Мне он не нравится нигде, ни у одной компании. Осилит в A6, они к нему и шли вместе с Palo Alto Semiconductor. Не осилил в новейшей разработке для рынка, это главное. А "в будущем". Ну так они уже отстают, даже в будущем - Хуавей представила планшет на Тегра 3 с двумя гигами ОЗУ, к примеру. Вот тебе и шикарный пример GPU с чистыми 4 ядрами. Ну я снова повторю: У них "ядрами" называют блоки, которых OVER дофигища может быть. Эти блоки сами по себе совершенно ничего не значат. 4 блока против 2-х ядер, это уже, строго говоря, на 100% больше, неплохой такой подъем. А главное, совершенно бессмысленный в плане производительности системы. Интересно это лишь с технической точки зрения. Примерно как 45 нм в процессоре. Вроде и прикольно, а на деле, главное чтобы было быстро, а сама технология не важна. Ссылка на комментарий Поделиться на другие сайты More sharing options...
Lacoste Опубликовано 14 марта, 2012 Автор Share Опубликовано 14 марта, 2012 Посмотри бурления от фоннатофф, они же верят, что речь о CPU. На этом форуме я сразу сказал, что речь о GPU, но есть куча других форумов. Да и черт с ними, со всеми. Пусть бурлят и думают. Тут чуть ли не на каждом углу живут в розовых очках, уже не удивляешься и не обращаешь внимание. Если сами не допрут, до и другие им не помогут.. Путь вранья? Мне он не нравится нигде, ни у одной компании. Твое мнение не учитывается. Мне тоже не нравится, и я это осуждаю. Но, блин, это бизнесс и у каждой конторы свои способы влияния на контенгент. Без этого нельзя. Не осилил в новейшей разработке для рынка, это главное. А "в будущем". Ну так они уже отстают, даже в будущем - Хуавей представила планшет на Тегра 3 с двумя гигами ОЗУ, к примеру. Да и черт с ним. Пусть отстают. Для них главное - лове капает, а на остальное класть. Ну я снова повторю:У них "ядрами" называют блоки, которых OVER дофигища может быть. Эти блоки сами по себе совершенно ничего не значат. 4 блока против 2-х ядер, это уже, строго говоря, на 100% больше, неплохой такой подъем. А главное, совершенно бессмысленный в плане производительности системы. Интересно это лишь с технической точки зрения. Примерно как 45 нм в процессоре. Вроде и прикольно, а на деле, главное чтобы было быстро, а сама технология не важна. У кого у них то? Приводи конкретные примеры. Вот конретно у ARM так? Если да, пруфы в студию - и именно про ARM и именно про GPU. Причем пруфы на официальные источники, а не рассуждения дяди Васи на хабре. Ссылка на комментарий Поделиться на другие сайты More sharing options...
Umnik Опубликовано 14 марта, 2012 Share Опубликовано 14 марта, 2012 http://blog.langly.org/2009/11/17/gpu-vs-cpu-cores/ Ссылка на комментарий Поделиться на другие сайты More sharing options...
Fox Опубликовано 14 марта, 2012 Share Опубликовано 14 марта, 2012 (изменено) Apple врать не будут ) как-то не хочется теперь верить подобным утверждениям. кстати, это был первый раз, когда Apple своих пользователей и потенциальных покупателей за идиотов держать начали?! Изменено 14 марта, 2012 пользователем lombax Ссылка на комментарий Поделиться на другие сайты More sharing options...
Lacoste Опубликовано 14 марта, 2012 Автор Share Опубликовано 14 марта, 2012 http://blog.langly.org/2009/11/17/gpu-vs-cpu-cores/ Я так и думал, что ты даш ссылку на десктопные\для ноутбуков GPU и т.п. Я же тебе говорю именно о том GPU, о котором писал выше. В нем 4 ядра, а не 4 блока. Есть разные реализации. http://en.wikipedia.org/wiki/Mali_%28GPU%29 кстати, это был первый раз, когда Apple своих пользователей и потенциальных покупателей за идиотов держать начали?! Идиоты из себя сами идиотов делают. Никто не мешает таковыми быть. Ссылка на комментарий Поделиться на другие сайты More sharing options...
Umnik Опубликовано 14 марта, 2012 Share Опубликовано 14 марта, 2012 В нем 4 ядра, а не 4 блока. Есть разные реализации. What you can see in this photo is that the GPU core is a scaled down version of what the CPU manufacturers would call ALU, or a functional unit. Ссылка на комментарий Поделиться на другие сайты More sharing options...
Lacoste Опубликовано 14 марта, 2012 Автор Share Опубликовано 14 марта, 2012 What you can see in this photo is that the GPU core is a scaled down version of what the CPU manufacturers would call ALU, or a functional unit. Я так и думал, что ты даш ссылку на десктопные\для ноутбуков GPU и т.п. В общем я тебе ссылку дал, название процессора привел. Зрячий да увидит. P.S. Вот в довесок: http://www.arm.com/products/multimedia/mal...mali-400-mp.php изучай. Ссылка на комментарий Поделиться на другие сайты More sharing options...
Fox Опубликовано 14 марта, 2012 Share Опубликовано 14 марта, 2012 кстати, кому интересно, небольшой обзор нового айпада уже есть: Ссылка на комментарий Поделиться на другие сайты More sharing options...
Lacoste Опубликовано 14 марта, 2012 Автор Share Опубликовано 14 марта, 2012 Очень интересный обзор. Ссылка на комментарий Поделиться на другие сайты More sharing options...
Umnik Опубликовано 14 марта, 2012 Share Опубликовано 14 марта, 2012 Lacoste, я вижу, что ты дал ссылку, где говорится, что этот GPU первый мультиядерный от ARM, да. Это не отменяет того, что само понятие ядра в GPU не играет той роли, что в CPU. Ссылка на комментарий Поделиться на другие сайты More sharing options...
Fox Опубликовано 14 марта, 2012 Share Опубликовано 14 марта, 2012 и еще одна статья с огорчающими фактами. iPad 3: What we didn't get впрочем, новый экран может покрыть некоторые из них. а Сири могла бы оставшиеся компенсировать Ссылка на комментарий Поделиться на другие сайты More sharing options...
Umnik Опубликовано 14 марта, 2012 Share Опубликовано 14 марта, 2012 Новый экран... Знаете, что меня удивляет? То, что его рассматривают под лупой, чтобы показать разницу относительно предыдущего. Извините, я редко работаю с планшетом, смотря сквозь лупу. Ссылка на комментарий Поделиться на другие сайты More sharing options...
Рекомендуемые сообщения
Пожалуйста, войдите, чтобы комментировать
Вы сможете оставить комментарий после входа в
Войти