Сегодня в сеть утекли детали о новом поколении мобильного чипсета компании nVidia - Tegra 4. Он будет в 6 раз мощнее своего предшественника и, разумеется, гораздо высокотехнологичнее.
В основу ляжет уже хорошо знакомый нам принцип работы "4+1", который означает, что при нагрузке (например, в играх и при просмотре видео) к обработке информации подключаются все 4 ядра, а самые неприхотливые задачи сможет выполнять энергосберегающее ядро-компаньон.
Графическое ядро чипсета позволит работать с дисплеями разрешением до 2560 x 1600 пикселей (пока подобными цифрами может похвастаться немного девайсов, в том числе Samsung Nexus 10), а также выводить с помощью HDMI изображение разрешением 1080р на внешний экран. В Tegra 4 мы увидим и последнюю разработку в ARM-архитектуре - ядро Cortex A15, а также поддержку высокоскоростного интерфейса USB 3.0.
Об устройствах на новом чипсете пока ничего не слышно, но ожидается что сама nVidia Tegra 4 будет представлена в начале следующего года.
Источник:
В Tegra 3 тоже пять, если что...
ух ты, я даже и не знал, если честно :)
вообще то правильно называется 4+1, пятое ядро автономное
Я у кого-то из производителей процов уже видел 4+2.
В чем сила, брат?
Вот ты думаешь у тебя много ядер, ты сильный??Нет! Сила в mah, у кого их больше тот и сильней!
Сила в правде, брат.
Ты йода что ли?
3 2 1 уже поставила
Сила в ньютонах!
Правильно... Сила в ньютонах...
72 ньютона на кг
То есть 7,2 кг на кг?)
да пребудет с вами сила!
Сила, братья мои, только в двух ядрах которые болтаются у вас между ног..а все остальное это так ,детские сказки!!
вся сила в деньгах
©бэтмен
чувак, тема с 8 ядрами есть, что дальше? 82 ядра? скоро как с экраном айфонов фишка будет, ядер много, смысла мало)
Сила в Амперах! ;D
Интересно у кого???????? Или сам сделал?
4+4 эксинос. якобы экомония энергии
сначало говорили что 2ядра мало кушает батарею (бред)
потом 4 ядра мало кушает батарею (почти бред)
а щас дошло, до них, что, нефиг мутить ядра, надо их правельно подгружать!
до них давно больше дошло чем до нас всех. просто им нужно зарабатывать деньги.
тут конечно в нвидиа пошли более-менее правильным путем, да и ядро будет уже А15, хотелось бы посмотреть на nvidia tegra stark)
в сотый раз говорю для нубов, ядра не оптимизируют!
понятно, но в сумме-то все равно 5.
5то 5ть
но если читаешь 4pda, то у тебя батарею кушает только екран, а не проц!
думаю что на 10% дольше проживет смарт
Звучит ошеломляюще.
.но блин,ребят..вдумайтесь в 6 раз мощнее 4-ехать ядерного чипсета..Ну куда же столько..куда? Чтобы рабочие столы плавненько листались?? Лучше бы все учились повышать емкость аккумуляторов в 6 раз, не изменяя размер батареи!
Потребление то-же сокращают, тех. процесс производства ARM чипов все меньше и меньше, да и АКБ улучшаются или просто растут в объеме (физическом).
Смешно. Наезжать на производителя SoC из-за емкости аккумуляторов - это круто.
Что в силах nvidia они делают - а именно утончают техпроцесс.
Хороший проц для планшетов, посмотрим новинки в следующем году.
есть куда, так как на тегре з есть проги и игры которые подвисают, и можно сделать проги и игры еще качественнее и т. д.
количество ядер от распределения задач никак не уменьшается.
Автономное ядро??? )) Что за бред... автономное значит не требует питания...Это что, аккумулятор не расходует?=))
Наверное имелось в виду не зависящее от других ядер? Хотя тоже непонятное что-то...
Автоно́мия— индивидуальная свобода действия; самостоятельность. Wikipedia
В контексте с ядром как-то невнятно вышло. Да ну и ладно...
зачем этот маразм с 8 ядрами? четыре за глаза остальное оптимизация!
Ты смотри тут разумные мысли не любят. Ща поди ещё и ретроградом обзовут.
Кстати да. Школота любит порассуждать о великом. Особенно о промашках инженеров крупнейших компаний. О заблуждениях маркетологов и аналитиков. У них же мозг не так развит. Куда им. А потом с умным видом затирать про будущие смартфонов и скорую гибель Apple. Суровая правда, чего уж тут.
Также как iPad 2 с 2мя ядрами уделывал эту вашу терегу 3)
nooo!
А по поаоду ядер я вам вот что скажу. Буть их хоть 64, от них проку нуль, пока не будет софта. А по поводу что уделает или не уделаят я вам скажу , что любой комп с Core 2 Duo и графиккой бюджетного уровня уделает все смарты.
ARM в первую очередь нацелен на энергоэкономность, х86 на производительность, их некорректно сравнивать.
+ звук никак не зависит от SoC, аудиочип стоит отдельно.
Это в каких интересно вы бенчмарках сравнивали, которые могут адекватно сравнить разные ОС??=)))
http://peacekeeper.futuremark.com/
Вот универсальный, любуйся!
GLBenchmark мб, не?
Таких и правда быть не может.
Одинаковый код, выполняемый всюду, может быть только на javascript и проверять его придется только через браузер.
так есть же какой-то браузерный тест, не помню название.
И притом через один и тот же браузер! Каковых на разных платформах нет. Так что адекватных бенчмарков для сравнения железа в разных ОС нет и не будет.
хром есть для андроида и для айос.
google.com/intl/ru/chrome/browser/mobile/
Сила в архитектуре, о великий знаток процессоров.
что верно, то верно, но вот как это толпам школоты обьяснить?)
<shkololo_mod> Пфф... Зачем?! Даешь 16 ядерный ARM-процессор на основе Cortex A15 +4 энергосберегающих! Даёшь 8 GiB LP-DDR3-1366Mhz! Даёшь Android-x64... В этом будущее! </shkololo_mod>
По моему стали забывать для чего нужен телефон/коммуникатор... Но точно не для фаломерирования xD
А что имелось ввиду под android-X64? Каким макаром ты на арм поставишь систему другой архиектуры?
Андроид х64 (Андроид на PC) упомянут отдельно от остального контекста.
x64 это не архитектура, а битность, x86 - вот это архитектура.
" x86 - вот это архитектура" Нет... это то-же "абстракция", х64 тоже иногда используют для обозначения этой архитектуры.
А для чего нужен смартфон? звонить?)
хватит уже "пыффф.."-кать. моветон же.
Телефон и коммуникатор созданы для совершенно разных задач. Подсказываю тем, кто этого не знал
ДА ЗАКОЛЕБАЛИ, ОПТИМИЗАЦИЯ!!! ОПТИМИЗАЦИЯ!!! И так ясно что оптимизация это логический довод до ума любых технологий, но и у нее есть предел, и не такой далекий как кажется, для того-то и нужны эти "ядра" в непомерных количествах, что-бы не дожидаться этого предела.
Оптимизировать всегда можно успеть, а вот разработать новые мощности не так-то просто, спокойно можно зайти в тупик и не успеть опробовать альтернативу, а люди хотят все больше и все быстрее, более качественных продуктов и услуг.
Да не люди этого хотят, а маркетологи. НЕ ужели тебе действительно нужен телефон с 2^n ядер. И нужен каждый год новый, надо же как то впарить новый не нужный продукт в этом обществе потребителей, где всё поставлено на коммерческие рельсы.
Особенно, весело читать "УТЕКЛИ" ну как дети прямо, пишите "СЛИЛИ" без ведома производителя и кучи маркетологов такие вот новости в сеть не попадают)) Ей богу уже смешно читать 4pda, на какую аудиторию рассчитаны эти новости и таргетированная реклама?
всегда можно успеть? что-то пока ни у кого не выходит...и мы не заладили с ОПТИМИЗАцией, мы разьясняем истину людям, подобным тебе)
Если ты вдруг этого не заметил, тегры 4 тоже еще нет В когда появится, будет то же самое и у других, только лучше как всегда
у эппл этих ядер и технологий не будет, но бедут как всегда все лучше))
хоть бы с энергопотреблением проблем не было
на картинке написано 28 нм, т.е. ТИПА энергопотребление должно быть ниже, а как будет на деле - хз...
От тех процесса только тепловыделение же зависит, не?
а "28 нм" - это, по твоему, что? )
А тепло откуда берется?
Если кпд остался тем-же, а тепловыделение снизилось, какой можно сделать вывод? Прально - энергопотребление тоже снизилось..
и с обновлением, т к некоторые производители отказались обновлять апаараты на предшественнике тегра 2
Qualcomm к моменту анонса тегры 4, выпустит линейку S5 на каком-нить 22-ом или вообще 18нм техпроцессе))
Самсунг ж пару месяцевназад анонсировал 4+4 проц
:O
ураааа! в нова 3 будет нормально запускаться)))
Хотя по идее, логичней 64.
Про графические ядра обычно умалчивают. На десктопных видеокартах они исчисляются сотнями.
У меня gts 250, 128 ядер. Тут 72.
Хотя кто его знает, унифицированные они или нет.
Вон в какой-то статье эппл нвидию осуждала, за то что в тегре 3 по одному потоку на ядро, а у них 4.
При этом не удосужились исходники benchmark'а показать... Даже названия не указали)
Хм... Может взять для брута с помощью pyrit&cal++ wpa2? =)
у смартфона и компа разные архитектуры как бэ.
99levelthinking,
поправочка архитектура разная но если по считать то два проца самых крутых от самса могут уже тягаться со старыми ноутами в смысле производительности. Я вообще сейчас думаю что ARM архитектура достаточно скоро переплюнет обычные процы так как ана меньше жрёт да и работет достаточно шустро. А так время покажет ибо технологи сейчас делают технологии.
Лол. Просто лол.
а я согласен. Если рассматривать Х86 и ARM то разница в поддерживаемых аппаратно инструкций. И если мы возьмем одни и теже инструкции, которые поддерживают оба типа процессоров и будем сравнивать скорость их выполнения, то очевидно ARM будет не так уж и отставать, а то и опережать некоторые старые двухядерные процессоры.
Если добавть теже инструкции как на Х86 к АRМ , то АRМ не станет х86 ?
ARM вроде тот же х86 только урезаний по возможностям
Твой мозг это обычный мозг, просто немного урезанный по возможностям.
А твой мозг не способен на большее ,кроме как срать в коментах .
На самом деле, не совсем. Там ещё как минимум разный обмен данных из собственных кешей ядер.
Более того, арм - это RISC, а х86 - это изначально CISC, теперь какое-то комплексное исполнение
понятно... можно даже не ждать, а спокойно брать девайс на снапдрэгоне.
уже можно брать ? и что ? и где ? и почему не на новом эксиносе который уделывает новый снапдрагон имея на 2 ядра меньше
потому что А15 а не Krait))
ну sony xperia v, например.
а почему не на A6X?) он обоих уделает не по тестам, а по реальной производительности)
))) А на мой iPad Horn 2 и прочие эксклюзивы выйдут раньше чем на вашу тегру 4))))
и работать будут плавно и со всей нужной графикой, без закидонов с несовместимостью)))
чтоб на спине в рюкзаке носить)
Я готов!! Если без проводов заряжать будет))
Да вы батенька Шварценеггер! )
А что? Приду в универ, поставлю рюкзак в угол, и пускай заряжает смарт)
Если он будет заряжать телефон из угла, вы начнете светиться к вечеру.
Упс, не подумал( Пойду в гта поиграю.
72-х ячеечную...
72х реакторную )
72х килограмовую
Осталось только дождаться момента, когда производители будут наращивать емкость батарей.
Купите себе Моторолу и радуйтесь жизни) RAZR MAXX,например)
почему вы так уверены сударь :D тут28нм против, если мне не изменяеи память, 40 на 3тегре
Сказали, что батарею меньше есть будет...
Там же есть пятое ядро с технологией "Battery Saver Core©®™"
Ого, ну так это в корне меняет дело, теперь не нужны емкие акки
мой асус трансформер тф101 уже наплакался после первого раза... теперь наблюдает за происходящим нервно похихикивая...
Хотелось бы просто, что бы он драл яфонпятерку, или как минимум графа и плавность андрея выросла на уровни. А всякие arm аналоги не отставали. Но не к спеху. Лучше наладить главное... эх..сказал запуская вайс сити на референсом галактике нексусе с "прозрачными текстурами" под 15фпс.
Но этого никогда не будет, ведь под ведро нужно писать так, чтобы запустилось хотя-бы на 70% устройств.
Поэтому того уровня оптимизации, года приложение пишется под конкретное устройство, не достигнуть.
8 ядер будут потом. Изначально слухи шли о трёх версиях чипа. И они вполне понадобятся для тяжёлых приложений типа Chrome Mobile, офисных пакетов, графических редакторов итп. Что до графики, то уже сейчас на Андройде игры как на компьютерах пишутся с возможностью регулирования качества. Так что так же как и на PC топовые игры в полном качестве будут только под топовые планшеты с топовыми видяхами.
чем тестировали уважаемый ? покажите мне реальные кроссплатформерные тесты, и не сравнивайте кастрированную систему зализанную под одно устройство с полноценной системой рассчитанной на туеву хучу разновидностей железа ...
имеется в виду ведь графика, а графический кросплатформенный тест есть - glbenchmark. там айпад 4 на первом месте в разрешении 1080р , за ним нексус 10, а дальше адрено 320 и айфон 5ый примерно на одном уровне.
И что, он без ОС работает, да? Прям напрямую с железом взаимодействует:))) Что за глупости?
и в солнечные страны, и
сё... :)
Правильно будет Cortex..А то что он в разработке и будет где-то во втором квартале 2013-это так...Цифры.
В тегре 3 слишком слабый видеоускоритель был даже на момент выхода. А уж сейчас и подавно.
А почему тогда делали игры с улучшенной графой на слабый ускоритель?
Маркетинг, все игры с "улучшенной" графикой запускаются и на других аппаратах, если пошаманить
Дак это понятно, но почему бы сразу не сделать на другие мощные девайсы? Неет же, только на тегру 3..
М а р к е т и н г
Могу назвать 4-5 моделей с таким же разрешением как нексус 10.
От Noname China Corp?
Если ваша религия не позволяет почитать по поводу этих девайсов,то кто вам доктор?..эти производители очень популярны в своей стране,и за эту ценну эти аппараты уделывают всех в ценновой категори в которой они.И про брак ни слова,зайдите в брендове ветки там порядка 5-7% брака,так как у китайцев рн не выше 20%-что очень допустимо за их ценну.
"Не гонись, ты, поп за дешевизной" (с) А.С.Пушкин
Покупать по дешевке, чтобы потом попасть на 20% брака, или поломку при доставке. Да ещё и не иметь возможность обратиться с СЦ? Оно того не стоит.
Уже портировали, и даже игры есть
как говорится, прогресс не стоит на месте. ;)
Покупай Apple, там по расписанию.
Ось не нравится
Ну, тогда придерживайся Нексусов.
Ну так и начал делать с покупки Nexus 7, а скоро игр для него зашибенных не будет уже(
Не бери в следующем году выйдет новое поколение консолей,инфа 146%
пока будешь ждать, анонсируют что-нибудь еще лучше... так можно всю жизнь прождать. :)
Они сейчас на Т3 ничего так зарабатывают, мне кажется ещё 7мес. ждать будем.
А сколько ты ожидаешь?
30-40%.
где-то так.)
Если все 4 ядра будут Cortex-A15, то будет круть
Да, будет хорошая вещь, но не в 6 раз мощнее Тегры 3)
да там ещё 72-ядерный gpu..
На уровне Intel HD 4000 Series... :-/
Скоро тысячи их будет, как в компьютерных видяхах)
у тебя видюха какая !? если от гига памяи то там уже за сотни граф. проц. перевалило =)
Как умно оценивать видеоускоритель по объему памяти.
так он и не оценивает.
Ну под граф. ядрами подразумевается производительность, по моему логично.
ты немного не в теме, по-моему ) тут о другом речь.
Ну просвети тогда.
сорри, но мне лень (честно). :)
Ладно, подождём какую-нибудь Tegra 5, тогда может и задумаюсь чтобы взять новый
Тегра всегда была отстающим процессором.
Так тогда лучше потом еще полгода подожди и возьми сразу шестую, или еще чуть-чуть и седьмую, а может еще пять месяцев и восьмую сразу?)
ну нексус 10 с двухядерным эксиносом вообще то уделывает новый снапдрагон с4 про у которого 4 ядра... где то тесты видел... так что всё нормально - на год точно хватит поиграть. эта тегра как и 4х ядерный эксинокс дай бог в конце второго квартала станут массовыми, а устройства в забугорье появятся в середине осени а до нас доедут дай бог к следующему НГ ... так что смело можно покупать 10ку даже для игр ...
ну а читалка из него до пока не уронится...
да вот насчет игр там все плохо...гпу для такого экрана слабоват, вы что, когда обзоры смотрели, не заметили, что в играх ФПС вроде и не проседает, но везде тотальное отсутствие эффектов и урезание графики? для оптимизации на такое разрешение приходится все урезать, что не есть хорошо.
72 ядра у GPU. Общего назначения...
Дак и это ещё всё слухи. Но может быть будет около 2Ггц
Тепловыделение на уровне тегры 3 будет.
Хаа, а тегра 3 печка.
у меня стоит т33, нагружал играми с зоны и далеко не печка, 3 пад куда сильнее греется
еще один, ты вообще 3 пад в руках держал?
Вообщем зачем я покупал прайм не понятно. Ладно посмотрим сколько он ещё проживет. Вот честно уже интересно если сопоставить мой 2 ядерный ноут и тегру 3 на сколько пунктов тегра будет отставать !? Кстати кто шарит есть статейки ато почитать охото !?
Сам обладатель тегра 3, порой кажется что ексинос с двумя ядрами остается "науровне" и по сей день. Единственный плюс, что тегра имеет разумную себестоимость, что нам конечным пользователь на руку ( взять например тот же тф300 или nexus 7).
С графикой у тегры 50 на 50, гте то хуже, гте то лучше конкурентов. Я лично жду тегра Старк.
в NVidia как раз смотрят вперед и руководствуются своей картой развития - roadmap, которая, в общих чертах, доступна для всех желающих.
Гте.. о боже.
про "крузис" четко сказано, спасибо посмеялся
Что смешного?
похоже, вам, как Шелдону, необходима табличка "сарказм"
Я понимаю что такое сарказм, но смешного ничего не увидел, глупости больше.
кто остановился?) ждем 122 ядра в тегре 5!!
планшет на винде...я не пойму, вам вообще нужен планшетный компьютер, или очередной ноутбук?
а она была?)
Я взял и не жалею) До этого был Acer a701 с full HD разрешением, он тормозил везде и всегда, для этого и делаю тегру 4 походу чтоб на больших разрешениях работало нормально. А так у меня и Galaxy S самый первый до сих пор на одном ядре почти все игры тяжелые тащит, да и нексус со своими 1280*720 думаю пару лет без проблем продержится
сейчас агресивная политика экосистем не глядя рушит вполне полезные начинания поглощением и последующим пшиком
уделает разве что по силе нагрева, это же тегра)
Никогда. С чего ей загинаться?
лол? мб когда АМД загнется? у нвидиа-то все отлично.
а когда Нокиа наконец загнется?)
ну ты и дебил. :D
Дебилы те, кто фапает на аппле.
придется тебя разочаровать - я не фапаю ни на эппл, ни на андроид.
Мало что меняет.
Maverick0,
типичные слова тех, кто яблочной техники в руках не держал)
эм...как бы мерило цифр-это и есть основное их предназначение, производитель этого не скрывает)
какие лопухи поведутся на такое
"эй ты где так руки вкачал?"-"да вчера вайсити на одном дыхании прошел)))"
72 графических ядра Ооо при том что 12ядер тегры 3 - слабее мали400мп4 то мы ещё поживём...и те у кого snapdragon 4 с 320-й тоже
так что походу кроме действительно крутого процессора нас ничего не ждет,я удивлюсь если он при 2560 x 1600 покажет больше 40fps
это соорказм? да владельцам повезет, если он при загрузке системы не оплавит корпус))
iOS forever!
запусти на nexus 4 nfs most wanted, ну и где твоя мошь?
Делали,вообще не долго живут
От солнечной батареи будет долго заряжаться :\
Tegra 3....Tegra 4....Каждая следующая в разы превосходит предыдущую .... Да пошли они в *опу , перехожу на сторону яблок.
Буду счастлив если на рынок гаджетов выйдет AMD ( Iconia tab w500 не в счёт ) .
http://www.amd.com/ru/products/notebook/apu/Pages/tablet.aspx
если амд выйдет на мобильный рынок их ждёт провал, у них дела и так херово идут.
Ага, а если вспомнить Qualcomm APQ8064 c Adreno 320, которая давеча поимела Тегру 3 во все дыры?
Не совсем AMD, но всё-таки логическое развитие AMD Adreno 130 в исполнении Qualcomm.
1. PhysX - разработка вовсе не NVidia, а Ageia, которую NV скупила со всеми потрохами
2. Единственая игра, в которой PhysX нормально работает-Borderlands 2, для остальных просто требуется софтина(причём даже на Radeon-ах)
3. В реальности, мощность Tegra3 не дотягивает даже до Mali400MP4, а висит где-то на уровне Mali400MP2, также как ещё не вышедшая Tegra4 соснёт у уже вышедшей в лице Nexus 10 6 серии Mali.
Единственное преимущество Tegra - в том, что NVidia вбухивает кучу денег в оптимизацию игр под свои девайсы, что, не могу не согласиться, даёт прекрасный результат.
Ну, и на закуску: семейство GPU Adreno разрабатывается(или разрабатывалось) именно AMD.
мали т658 будет круче этого? на сколько?
кучу денег? что-то я за полгода пользования тегрой не увидел результата, tegra 3 has no games, я гарантирую это!
эппл к этому как раз и идет) а остальные как играли в "у кого больше ядер", так и будут играть)