На прошлой неделе в базе популярного бенчмарка Geekbench появились первые результаты тестирования нового MacBook Air с оригинальным процессором Apple M1. Испытания проводились на «домашней» ARM-платформе, а чуть позже производительность новинки оценили при запуске приложений на архитектуре x86 в среде эмуляции Rosetta 2. Несмотря на падение производительности в таком режиме работы, лэптоп снова оказался впереди флагманов серии с процессорами Intel.
При использовании инструмента эмуляции Rosetta 2 процессор M1 работал на более низкой частоте: вместо максимальных 3,2 ГГц он смог выдать лишь 2,4 ГГц на ядро. Итоговая производительность MacBook Air оказалась следующей:
MacBook Air без эмуляции (Geekbench):
- Одноядерный режим — 1687 баллов
- Многоядерный режим — 7433 баллов
MacBook Air с эмуляцией x86 под Rosetta 2 (Geekbench):
- Одноядерный режим — 1313 баллов
- Многоядерный режим — 5888 баллов
Таким образом, несмотря на снижение производительности при эмуляции, MacBook Air на платформе M1 по-прежнему остаётся самым мощным компьютером Apple на базе потребительских чипов. В частности, при тестировании в одноядерном режиме он обходит 27-дюймовый iMac (Intel Core i9-10910) и MacBook Pro с процессором Intel Core i7-1068NG7.
Источник:
Будут, ждите.
хейтерам даже если реальные тесты покажут, все равно придумают свою "теорию заговора"
Прощай конечно, в x86 очень много неиспользуемого мусора в бытовом плане.
x86 останется только для 3D моделирования и может чего-то еще.
90%+ пользователей пользуются только интом, офисом и простыми редакторами. x86 со временем будет отдельным классом, но переход будет долгий.
На реальные тесты стоит эмбарго, их начнут публиковать только когда устройства поступят в продажу. Чтобы рекламной кампании не мешали. :)
> На реальные тесты стоит эмбарго, их начнут публиковать только когда устройства поступят в продажу
А обычно наоборот? Устройств нет, а все как-то тесты делают?
Хитро...
На обзоры и тестирование устройства как правило производитель предоставляет заранее, поэтому и обзоры выходят в день презентации у всех блогеров. Ну и условия предоставления техники естественно строго прописываются и оговариваются.
Да была бы разница...
Вон в первый день купит злостный критик и в пух и прах разобьёт всё. И облом продаж.
Если конечно это так.
В том-то и соль, что Огрызок критикам не предоставляет свою технику ... только лояльным блогерам. И я так понимаю, что-то предоставляет не только на тестирование, но и в дар ... ну вы меня понимаете =)
Даже за деньги можно говорить правду. Берёте в руки, скажем, iPad 2020, на три (3) поколения процессора отставший от MacBook Air, и понимаете, на основе знаний о Rosetta 2 которая ни разу не является средой эмуляции, что так и должно быть.
> В том-то и соль, что Огрызок критикам не предоставляет свою технику ... только лояльным блогерам
Ещё раз для непонятливых.
17 ноября он будет доступен любому.
Нельзя просто так наврать с три короба, и ожидать, что это прокатит.
Если будет обман в тестах, то сразу потребители пойдут в суд. Apple не та компания, которая на столько готова упасть лицом в лужу...
Так ведь где обман? Циферки в бенчмарках не просто так называют "попугаями". Потому что это измерение производительности в непонятно в чем. Нет такой единицы измерения "баллы в антуту". Любой суд тебя лесом пошлёт, если ты будешь жаловаться, что у тебя смартфон в антуту баллов не добирает. Реальных измерений производительности не было и нет.
ты сейчас серьезно??? Geekbench сравнивать с антуткой?)) Гикбенч показывает мощность сугубо ЦП без странных схем и уравнений по суммированию разных очков и так далее. А т.е. мы видим сугубо сколько камень набирает и независимо от платформы т.к. тест мультиплатформенный и везде одна формула. По сути так же само и линпаком можно сравнивать, что мощнее))
Да как ты не называй эти баллы, нет никакой строгой и чёткой формулы, по которой они вычисляются, поэтому хоть миллион баллов наберёт процессор - циферки эти не стоят абсолютно ничего.
У меня гикбенч в 800-м снапе вдвое больше баллов набирал, чем мой i7-3770. А 636 снап более поздний набирал больше, чем 800-й. Только толку никакого не было от этих баллов, 636 снап даже с простыми задачами справлялся с трудом.
Так вроде и должно быть (почти).. Был у меня когда-то аппарат на 808 снапе, пробовал его в дельфине (результаты кстати, ужасные)
А потом появился редмик, 4х на 625 снапе.. И каково же моё удивление когда он выдавал точно те же кадры.. Первые 800е снапы были не очень.
А ещё, насколько я знаю, 636 - урезанный по частотам 660, так что я не капли не удивлён что он обошёл 800й..
Но как 800й уделал 7й камень, я увы не знаю - шарю только в мобильных процах и то не много..
i7-3770 857 в однопотоке! снэп 800 147 в однопотоке. И как у тебя 800ый набрал больше очков в гикбенче?)) я специально не поленился и зашел на сайт с результатами ))) сказочник вы еще тот смотрю))
Я ставил гикбенч на свой ПК и проверял. В те далёкие времена я думал, что эти бесполезные циферки хоть что-нибудь значат. :)
значит, что-то не то с твоим ПК, либо ты сравнивал разные версии гика. 800ый никак не мог выдать в тесте больше чем i7
Ну вот, началось, теперь я ещё должен за версиями попугаев следить, а то, видите ли, у них в разных версиях разный тембр голоса. Какие были в плей маркете и мс сторе, те и скачивал.
Не зря же пишут гикбэнч4 или гикбенч5 так как они дают разные результаты. Их всего актуальных всегда две версии)) так, что ты не прав)
Ну т.е. если я хочу поиграть, то арм - в топку)
Тут все сомнительно. Исходя из моего представления в играх ЦПУ использует опять же ограниченный набор инструкций, а PCI-e можно реализовать и на арм. Моделирование сложных математических моделей и объектов с расчетом физических параметров, вот что я имел ввиду. В играх же физика и все остальное очень упрощено.
Вы путаете причины и следствия. Программисты бы с удовольствием применили хоть к каждой песчинке расчеты ее существования и перемещения, вот только проц устанет считать.
В играх все упрощено как раз наоборот по причине, чтобы процессор успевал считать, а не потому что неохота делать сложные модели. И чем дальше, с появлением больших мощностей, тем более сложные и приближенные к реальности модели стараются применить.
Игры сейчас пишутся на ООП, основу которой составляют движки. Те же в свою очередь разрабатываются с учётом гибкости воспроизведения на разных устройствах. Не все так просто там.
Хм, ждем проблемы в чипах. Хм, если они откажутся от поддержки Armv7 и сделают нормальную виртуализацию... То уже смысл есть, хотя опять x86 более модульная, в то же время на arm одни soc...
Хм
Что то тут не чисто. Внезапно изниоткуда у эппл взялась нереально хорошая реализация эмулятора х86 на арм? Потери которой раза в 3 ниже чем лучших коммерческих полгода назад и раз в 10 ниже чем в свободном qemu? И всё это только для того, чтобы отказаться от доставшего поставщика железа? Ну да, конечно...
а для запуска виндового софта на макбуке только 2ю систему надо ставить или есть эмуляторы прям в операционке? вы о них?
Либо ставите вторую через BootCamp, все официально, либо через виртуалку Parallels Desktop, самая распространенная сторонняя программа. Останется ли BootCamp в связи с внедрением нового чипа затрудняюсь сказать.
Точно не будет.
Apple никак не может поднять Windows для ARM со всей инфраструктурой.
Это слишком большая работа.
интересно, а parallels на ARM-ах будет работать?
Там сложно, сперва MS выступала против этого, сейчас вроде договорились.
« A new version of Parallels Desktop for Mac that can run on Mac with Apple M1 chip is already in active development.»
Так что поживем увидем.
Возможно там чтото типа аппаратного jit
с чего ниоткуда-то? Эппл в третий раз уже радикально меняет архитектуру с сохранением обратной совместимости, это уже ВТОРАЯ розетта.
А первая случайно не для перехода с пауэр на х86 была годах в 90-х, или когда там?
это вторая. Первая - переход Motorola 68xxx - PowerPC
переходы 8-16-32-64 бит в рамках одной архитектуры естественно никто не считает.
блин да, я про смену архитектуры. Первая розетта да, PPC - Intel
Не расасчивай лодку. Многие верят в божественность работников Аппле и сверхразум последователей Жопса
Похоже, на аппаратное ускорение каких-то инструкций из этого теста, т к уделать 10 ядерный интел на большой частоте в эмуляции иначе импоссибл.
В принципе, если их софт все эти сопроцессоры будет эффективно использовать, то синергия будет нехилая.
Покупка яблочка уже не кажется такой глупой идеей.
Есть задача и есть решение, какой толк в решение задачи которую ты не будешь перед собой ставить?
ASICи выдают больший хешрейт нежели x86 CPU, но их не пытаются преподнести как универсальную платформу.
При этом я пользователь мак, но ряд моих задач не решается на arm ( виртуализация *nix x86 ОС под отладку ) и сколько попугаев не считай, не насчитаешь достаточно.
Может вам воспользоваться х86 и *никс ОС для отладки *никс ОС под х86, а не маком?
А чем плох mac c VMware и поднятой ВМ Centos 6-8? Какой-то принципиальной разницы в использование mac OS или любого GUIевого дистрибутива linux нет, дело привычки, все нужные инструменты давно есть(brew install ..);
Более того под ARM они тоже есть. Опять же есть docker через qemu (мм звучит примерно так же как работает-)
Более того можно работать и на калькуляторе с консолькой и vim'ом, да хоть на raspberry pi c инфраструктурой в облаке, только вот нафига?
Но пока мы видим только синтетику на абстрактных задачах и предложение поучаствовать в бета тесте за свой счет.
mac c VMware нужен для работы примерно так же, как калькуляторе с консолькой и vim'ом или raspberry pi c инфраструктурой в облаке.
Либо инженеры Эппл сделали чудо и их ЦП при десятикратно меньшей потребляемой мощности обгоняет топовые процессоры или пахнет крупным обманом и игрой с циферками.
Здесь 100% есть игра с циферками. Представлен только однопоточный результат, хотя у интела больше ядер при том, что М1 ведёт себя как 6-и а не 8-и ядерный. Похоже ядра спареные как в амд бульдозер.
Или ещё круче, эмулятор может использовать 1-2 потока и не может пройти многопоточного теста.
Ты в глаза долбишься? Многопоток прямо на скрине
А для десятиядерного интела?
а где ты видел 10 ядерный макбук?
Вот как раз на том скрине выше, в который меня тыкают.
это iMac, а не макбук
Разница только голове маркетолога и в корпусе.
вот когда imac новый выпустят там и будет 10 ядерный Apple Silicon
Нет, очень вероятно что инжинеры эппл сделали очень качественную работу, но не чудо.
Просто это первый массовый десктопный арм, да ещё и 5нм, а дикое развитие архитектуры давно намекало, что десктопный х86 может оказаться в глубоком болоте.
Качественно нае*али, да. Не может куцый arm проц, с меньшим tdp, показывать реальную производительность выше хорошего х86-64. И там ещё и видеоядро оказывается как 1050ти, прям ваще сказка, пусть запустят через свою розетту гта5, посмотрим на 0,1 фпс, посмеёмся.
Если бы ещё эппл не был эппл...
И тогда мы запустили бы на десктопном арм подобного класса винду/линукс/андроид и что то мне подсказывает, что интелу резко стало бы не смешно. Ни и амд тоже поднапрягся бы.
запустили бы на десктопном арм подобного класса винду/линукс/андроид и что то мне подсказывает, что интелу резко стало бы не смешно.
Ага, с идиотов было бы не просто смешно а очень смешно. В х86-64 огромное количество разных инструкций, которые обеспечивают универсальность и выполнение огромного ряда задач, а не прогоны в бенчах. Хотя и существует с десяток-другой сценариев, где арм может догнать х86-64, но существуют сотни, если не тысячи сценариев, где арм будет делать сосо.
Большинство разработчиков почему то всё таки называют "огромное количество разных инструкций, которые обеспечивают универсальность и выполнение огромного ряда задач" просто костылями и мусором...
arm во первых настолько же универсален. Во вторых, он не тянет наследие доса и 16-битных IBM PC. В третих, добавляемые в него расширения это примерно то, что действительно эффективно работает, а не те первые попытки что то ускорить вроде mmx и 3Dnow. И в третих, х86 уже приближается к некому потолку производительности потока и развивается дальше медленно, а арм очень быстро его догоняет, копируя всё полезное и не копируя костыли.
>>тысячи сценариев, где арм будет делать сосо.
Давайте дождёмся 16-и ядерных арм на частоте в 5000Мгц с кешами по 2+Мб на ядро, с памятью на 3200+Мгц, с возможностью использовать хотя бы 65Вт энергии вместо 10, и вот у них и спросим, кто же действительно сосо. Этих процев нет не потому что это сложно, а просто потому что ещё никто не решил, что пора бы их напечатать.
нанометры не влияют на производительность. Вообще не показатель.
Нанометры позволяют слегка поднять частоту при том же нагреве. И дольше удерживать буст или не тротлить, тут уж не что охлаждение и БП рассчитан.
Пусть сначало покажут, а там разберемся.
Мы вас усшлышали, оставьте адрес электронной почты - мы вам на неё вышлем результаты реальных тестов. Ждите!
а реальные - это какие?
Почему-то уверен, что в рендеринге видео он обойдёт своих собратьев, ибо заточен под это.
ну скажем, время компиляции, архивировании.
в этом даже старые амд фуфиксы рулили, только вот покупателем надо было игоры всякие =)
Ну и в целом для ультрабука не основное применение имхо.
Абсолютно верно, но для анализа нового м1 само то. Ведь почти такой же м1 будет и в ПРО версии.
Ну там система не прям трансляции а больше похоже на заранее перекомпелирование приложение под арм, ну и оптимизация библеотек. Так что может все. Но в конечном итоге будут баги и все подобное, скорость по факту ниже окажется.
"Первое НО - как формируются баллы в CPU Тесте Geekbench?
А происходит это весьма забавно, потому как учитывается далеко не только производительность ядер, но и производительность всевозможных кодеков. Список тестов есть в открытом доступе. Поэтому шифрование, работа с сжатием файлов, изображениями, видео, аудио, матрицами и т. д. заслуга не "Супер-мощного ARM", а дополнительных асиков рядом с ним. Вспомнить хотя бы момент из презентации, в котором сравнивали кодирование видео используя кодек "Apple ProRes", аппаратная поддержка которого отсутствует во всех процессорах, кроме изделий самой Apple. Почему бы не сравнить кодирование видео не аппаратными кодеками, а программными? Но вот незадача. В современных ноутбуках большей частью этих задач занимается не процессор, а видеокарта.
Второе Но - температуры. До сих пор в сети отсутствует информация о тротлинге данного процессора. Все тесты, что есть в сети, показывают только кратковременную нагрузку. Как себя будет вести процессор при работе в том же After Effects хотя бы пол часа? (Хотя работа в AE на устройстве с 8Гб ОЗУ та еще боль).
Еще сильнее смущает сравнения процессоров на презентации, когда в одном графике используется среднее энергопотребление и, внимание, пиковая производительность. Это официальная информация, которая указана мелким шрифтом в сноске. Не является ли данный график попросту абсурдным? Видимо, для кого-то, нет."
Обратно сравниваем производительность асиков и удивляемся большим цифрам. Быть может нужно провести тест исключительно ядер процессора, а только после этого выводы делать? Иначе какой смысл сравнивать производительность ARM и x86? С тем же успехом можно учитывать производительность видеокарты и утверждать, что новый М1 в десять раз быстрее i9 10900K в разгоне под жидким азотом. Просто M1 тестировался с 3090, а i9 на встройке.
Appleprores давно стал стандартом в киноиндустрии
Можно больше конкретики? Что-то подсказывает (интересно что?), что о этой самой киноиндустрии и стандартах в них вам известно только из рекламы самой Apple.
Где конкретно используется этот кодек?
Быть может камеры той же RED научились не отключать половину функционала при использовании Appleprores?
А может во время монтажа и композа вдруг перестали использовать секвенции и форматы бес сжатия, а начали гонять файлы используя Appleprores?
Может кинотеатры принимают этот кодек? Телевиденье?
А, знаю! Его наверное стриминговые сервисы используют! Как это нет?
Ну и открою вам еще один секрет. В киноиндустрии не редко используются рендер-фермы на линуксе, где туговато с Appleprores. Чуть реже для этого используется, потому как далеко не все согласны делать отчисления мелкомягким. Или вы думали что в киноиндустрии все за Маками сидят и используют Кошерный Final Cut? Тут я вас тоже разочарую.
*Чуть реже для этого используется винда
В киноиндустрии используют аймаки с 1500 Гб оперативы, ТК там сотни часов хдр 4к контента перерабатывают. Любой фильм в кино американский, который ты мог посмотреть в последние 10 лет, монтажился на маках в эпл прорес. Я не читал дальше двух твоих строчек, ты сам можешь все загуглить. Если надо объяснять, то не надо объяснять, ага
Повторяю еще раз - больше конкретики. До тех пор Ваши слова не более чем пшик.
Очень удобно доказывать свою точку зрения называя всех вокруг тупыми, при это не приведя ни одного факта.
1 - В какой конкретно студии используется те же "аймаки с 1500 Гб оперативы"?
2 - зачем во время монтажа, рендера графики, композа и т. д. перегонять все в Appleprores, чтобы потом тратить время на его декодирование? Чтобы память экономить? Думайте, перед тем как подобное заявлять.
Ну и третье. Во время композа что-то помимо секвенций редко используют, потому как требуется не только само изображение, но и множество вспомогательных каналов (как минимум информация о глубине кадра). Каким боком тут идет Appleprores? Не подскажите?
Я вот с уверенностью могу заявить что Pixar использует на рендер-фермах линукс. На устройствах работников используются различные OS, но из-за единого пайплайна софт и кодеки на этих устройствах одинаковы. Не подскажите, как, учитывая линукс, пиксар должен работать с Appleprores?
Более того. Большая часть студий, которые занимаются эффектами для киноиндустрии, поступает аналогично Pixar. А теперь подскажите, как киностудия должна заказывать эффекты у сторонних студий, если их пайплайны не совместимы? Тратить время на перегон контента в удобные для себя форматы?
А какой софт там на линукс фермах? Только блендер + самописное что-то? ферма это 10 видях на одном сервере или кластер?
Я тоже всегда угораю там логикой людей, которые рассказывают, что весь мир мультимедиа создается на Маках...ведь там все так плавно работает и для людей
К тому же, причем тут его "стандартность"?
Это как-то влияет на то, что только процессоры яблока имеют данный аппаратный кодек?
С чего они взяли адепты ябла, что один прорес используется? Их же есть несколько вариантов этих кодеков. Прогонять такой массив в прорес это действительно глупо, есть прокси файлы и другие кодеки, ну или камеры м готовым и нужным кодеком.
И это без буста
И только в выключенном состоянии
И это только*
С этим думаю проблем не будет, даже старичок a12x спокойно крутит 4 дорожки 4к 60fps с эффектами и прочим.
Я не про крутит, а кодировщик. Под arm с этим реальная проблема.
Без разницы же как, главное результат
На arm есть неон. Это позволяет даже хреновому cortex-a53 в режиме arm7l приближаться с core2 в эффективности на такт (дико уделывая при этом на ватт)(при близком техпроцессе 45-32нм)
Вы ничего не путаете? Neon - это декодер для плеера, а не кодер.
Разговор идет о ffmpeg и на ARM в H.265 на 8-core Exynos 7885 он выдавал 0.3 кадра, а древний i7 4850HQ 3 кадра.
Настолько помню тема с развитие загнулась.
Неон не декодер и не энкодер, это набор дополнительных инструкций процессора для чего то там, на чём построены мультимедийные рассчёты и рассчёты хешей.
Цпу-майнеры при сборке с неоном ускоряются раза в 1,5. ffmpeg без неона не пробовал, но с неоном на rpi3 libx264 fullhd у меня выдаёт 0,4 кадра при 600Мгц против 1,1-1,5 кадра на 90-вт ноуте с коре2 при 2,17 Ггц. Разница есть, но не глобальная. В то же время архиваторы и браузеры на малине в 3-5-10 раз медленней, так что эффективность неона и мультимедийных инструкций на арм очень даже на лицо. А на амд64 ничего подобного нет, векторные инструкции непопулярные и неэффективные.
спасибо за информацию, буду знать.
В общем скорее всего реализация на GPU будет.
А у него памяти на 4К хватит? там кажется 20+ гигов надо если кодек уровня av1.
Ну так AV1 сейчас мало кому нужен.
А тот же h.265 кодировать и айфон умеет c 2 ГБ.
Ну уже есть первые обзоры.
«Блогер с канала Tally Ho Tech сравнил 13-дюймовый MacBook Pro на ARM с 16-дюймовым MacBook Pro в Final Cut Pro X.
Для этого он запустил рендер одного и того же 6K-видео, длительностью около 45 минут.
MacBook Pro с M1 оказался почти в два раза быстрее.»
А бревно то с гнильцой)
Huawei за это платит, а за новости Apple просто хайповые и привлекают большое число людей.
Я не сижу в бухгалтерии 4пда, но сейчас стартовали продажи 12 Макс и Мини и что-то статьи про Эпл посыпались как не свои, причем при старте продаж 12 и про было тоже самое... Скрытая реклама ,тоже реклама...
Сам аппле инк не платит. А вот местные перепродаваны вполне
Да бред то не несите, когда выходит новое что то от Apple поток новостей про них всегда большой везде и никто за это не платит))
А вот когда у Хуавей презентация чего либо и идут статьи про них , прочитайте комменты , про чемоданы, про достали , сколько можно и тд...так что все как всегда...
Потому что они за это платят, особенно когда в новостях так и веет брошюрой, сплошной позитив (китайцы не любят любой негатив).
А я считаю что Эйпл тоже платят, просто умнее , не нашим , а западным ресурсам, а наши просто перепечатывают эти проплаченное море статей... И охват больше и не так раздражает...
Тестов Geekbench возросло**
Может и не мамонты, но когда на x86 всего 2 производителя, то возникновение медленного развития в ситуации отсутствия сильной конкуренции не ставит долго ждать.
На допинге сперва можно очень резвый старт показать. А вот стабильную очень продолжительную по времени работу обеспечить очень сложно.
Тротлить будет этот проц. Вот увидите.
В смартфонах и планшетах с тонкими корпусами все ок, а тут значит тротлить будет?)))
А в прошке так ещё и активное охлаждение...
ну что вы в смартфонах и планшетах часами делать будете, где понадобятся все ядра под завязку?
Ну на смартфрнах очень печально с этим, у тех же эпл, с их "крутыми" биониками сильный троттлинг, даже рогфон 3 роняет частоты с таким-то охлаждением.
Или обман века.
Желаю ему купить остров, который будет набирать много баллов в таких же левых тестах для островов, мало имеющих общего с реальностью
Это всего лишь означает, что программисты яблока не способны под хожренову тучу различных процессоров написать свой софт. Руки из одного места.
Программисты яблока и не должны писать подо все процы. Зачем?
ну теперь вообще им под другие процы писать не надо.
Они хоть слово такое ещё не забыли. В то же время у гугла стало стандартом иметь 8 ядер 1500+ Мгц только для того, чтобы пролистывание списка в настройках андроида тормозило плавно и не раздражало большинство пользователей.
Зависит от производителя. Голый ли андроид и т д У Гугла софт вылизывают те, кто смартфоны делает. Так что оптимизация на их плечах.
Он производителя зависит только финальная шлифовка, порядка 50%. Ну и эффективность железа. А вот 3 порядка оверхеда на каждой простейшей операции, с которой за милисекунды справлялся любой устаревший мобильник со свалки истории - это всё творчество гугла с их желанием завернуть обёртку с обёртками в ещё одну, самую-самую универсальную обёртку.
Казалось бы при чем тут гугл
Почитайте в вики про Clang, который придумали программисты эппла, потом еще раз поделитесь своими умными мыслями. Или про эппловский Universal Binary, который позволял одному исполняемому файлу работать на четырех архитектурах.
Всего лишь?
Clang не детище эпла. Яблоко в нем участвует, как и Гугл. Опен сурс это. Яблоко в разработках таких замечено никогда не было, только использует чужие наработки.
Глупости пишешь.
> Яблоко в разработках таких замечено никогда не было
И поэтому часто участвует в подобных проектах, яснопонятно
в разработках свободного ПО, только пользуется , потом выдавая за свое.
Так же и планшеты, смартфоны, теперь процессор. Майкрософт планшет первыми сделали, смартфоном была даже Nokia 9110, наладонники и т.д. Но развитие мощностей компонентов , аккумов и другого достигло нужного уровня позже, а вот когда появилась возможность выкатить более менее готовый продук, функциональный- тут яблоко то и подсуетилась. Представив как первый планшет, первый смартфон.
История с процессором аналогична. На 5нм сразу стали выпускать. Пока все производители шли по пути изыскания технологий и развития - эпл выжидала.
Маркетологи , не более.
> потом выдавая за свое
Примеры?
> Майкрософт планшет первыми сделали
Tablet PC в 2002? Acorn NewsPAD из 1994 года передаёт ему привет.
У Apple до этого был Apple Newton в 1993, а до него Apple Graphics Tablet в 1979. Поэтому это все от лукавого.
> функциональный- тут яблоко то и подсуетилась
Вы продолжаете пороть чушь, перечитайте списки компаний которые участвовали то тут, то там. Apple во многих сферах участвовала и приложила руки к появлению многих направлений, на ровне с другими компаниями.
Пусть так, графические планшеты не учитываем.
О как), а с чего бы это? В обоих случаях это устройство, которое управляет или предоставляет возможность взаимодействовать с системой или информацией за счёт работы через экран. Apple Newton и вовсе один из первых кпк где все было построено работе через экран.
Так по вашей логике это MS « только пользуется , потом выдавая за свое».
Не стоит разводить подобные дискуссии, ибо всегда был кто то первым, но мы с вами не пользуемся этим, мы пользуемся тем что развили и создали, переосмыслили на основе это. Или вы ездите на каменном колесе в место машины?)
конечно. Переизобрел велосипед.
Ну то есть по вашему каменное колесо лучше велосипеда?
Contributors include Apple, Microsoft, Google, ARM, Sony, Intel and Advanced Micro Devices (AMD). It is open-source software,[10] with source code released under the University of Illinois/NCSA License, a permissive free software licence. Since v9.0.0, it was relicensed to the Apache License 2.0 with LLVM Exceptions.[4]
Подкрепляем слова
нутк, не единоличная же разработка, просто всем этим корпорациям нужна кроссплатформенность , вот и все
а если проверить свою память и все-же почитать в вики, откуда взялся Clang? а если сходить на opensource dot apple dot com? А если вспомнить про другие разработки, отданные эпплом в опенсорс? типа LLVM, OpenCL, WebKit, ZeroConf - это так, навскидку?
да, жаль что кроме яблока больше никто ничего не делает. Спасительница технологий современности, животворящая компания.
Ты видимо особенный. Человек написал то, что Яблоко ничего не создала для индустрии, другой опроверг это используя пруфы. Потом появился ты с унылым сарказмом. Видимо тебе с таким же сарказмом психиатр говорил о том, что ты в порядке.
dmdimonof316.11.20 | 14:39 | |
motoharley24,
Почитайте в вики про Clang, который придумали программисты эппла
motoharley24216.11.20 | 14:51 | |
dmdimonof,
Clang не детище эпла. Яблоко в нем участвует, как и Гугл. Опен сурс это
Кому то пора протереть свои глазные apples и перестать читать комментарии снизу вверх. Услугами психиатра/психотерапевта не пользуюсь.
специально для вас, цитирую вики про Clang
Starting in 2005, Apple Inc. made extensive use of LLVM in a number of commercial products,[14] including the iOS SDK and Xcode 3.1.[...skip...] Apple chose to develop a new compiler front end from scratch, supporting C, Objective-C and C++.[17] This "clang" project was open-sourced in July 2007.[19]
Специально для вас выделяю
Apple chose to develop a new compiler front end from scratch ... This "clang" project was open-sourced in July 2007
Indeed, ну захотело яблоко сделать с 0, ок. Странно, что так низко упомянули его.
Смотрите, у меня в день четыре сообщения. ТРИ из них я потратил на то, чтобы вы прочитали базовую статью в википедии по предмету в котором как вы считаете вы разбираетесь, причем настолько, что предлагаете окружающим "протирать глазные apples"
И какой смысл с вами о чем-то общаться? Вы вон в посте выше прекрасно за меня что-то придумали, типа остроумно опровергли - и нафига вам собеседники?
Я опроверг то, что яблоко сама разработала clang. В разработке участвовали перечисленные компании. Да, яблоко - инициатор разработки нового фронт-энда для С компилятора, но не только её "программисты". Если внимательно, посмотреть в ту же вики, то видно, что оригинальный автор - Chris Lattner, который и в гугл и в тесле работал, а потом и в яблоке.
А теперь перечитаем ваш коммент:
dmdimonof, 16.11.20 | 14:39 | |
motoharley24,
"Почитайте в вики про Clang, который придумали программисты эппла"
С таким же успехом, я могу сказать, что его придумали программисты тесла. Или гугла.
Если хотите спорить, изучите статью, на которую ссылаетесь. И да, совет протереть глазные apples всё ещё актуален.
Не поверите - Вооот настолько вот по..... Я сюда деградировать заглядываю.
А Вики любой дурак может правки делать. В какой то языковой версии Вики все статьи писал человек, который даже языка той страны не знает- и что?
rryhlk,
Слушайте, ну совесть и самоуважение какое-то имейте, правда.
"Apple chose to develop a new compiler front end from scratch ... This "clang" project was open-sourced in July 2007" - Эппл решила разработать новый компайлер фронт-энд с нуля... Этот проект Clang был отдан в опен-сорс в 2007 году
ваш ответ - "Я опроверг то, что яблоко сама разработала clang"
Понятно, что ПОСЛЕ того, как Эппл отдала в опенсорс САМОСТОЯТЕЛЬНО, С НУЛЯ разработанный проект, к нему подключился кто-то еще - в этом суть опенсорса.
И, кстати, как Крис Латтнер, со-создатель LLVM, относится к Clang? Или вы не знаете, что LLVM и Clang - это про разное? Или считаете, что я не знаю?
Совесть имейте уже.
У нас с вами разные википедии наверное и в авторах кланга стоит яблоко, а не крис. Тут уж ничего не поделаешь.
Слушайте, ну вот зачем? Естественно, в Эппл Clang создавали конкретные сотрудники, одним из таких сотрудников был и Крис Латтнер. Вы смеетесь, когда пишете - мол, это Латтнер создал кланг? Ничего, что он делал это в рамках своих должностных обязанностей, на своем рабочем месте, на бабло и по заданию Эппл, как один из сотрудников? Или вы настаиваете, что он создал кланг в одно лицо, в нерабочее время и по своей инициативе, за свое-же бабло?
LLVM на секундочку он создавал не являясь сотрудником Эппл, не за деньги Эппл, не по заданию Эппл - это вообще изначально был университетский проект. А вот кланг он вместе с другими сотрудниками пилил ПО РАБОТЕ, а работал он на эппл.
Чисто к сведению - даже юридически все, созданное по заданию, на рабочем месте, во время работы на компанию - собственность компании, и это еще мягкая формулировка.
Или вы предлагаете все компании считать просто сборищем специалистов и говорить, что разработанное компаниями - на самом деле разработано вовсе не ими, а (случайно выбранными вами) людьми из этих компаний, а компании просто так, сбоку стояли и себе все присвоили? Тогда зачем говорить только про Эппл? Так получится, что ни одна компания не создала вообще ничего - и эппл ровно так-же, как и остальные.
Простой прямой вопрос - вы продолжаете настаивать на вот этих своих словах: "Clang не детище эпла." ? Несмотря на то, что Clang создан с нуля сотрудниками Эппл по заданию Эппл на деньги Эппл и только потом, как готовый продукт, был отдан в опенсорс, где к разработке подключились все, кто хотел?
> Руки из одного места
А у кого они есть?
Windows никогда и не работала идеально под каждом железом, не отрабатывала всю производительность полностью.
Вы таким макаром записываете в криворуких программистов вообще чуть ли не всех программистов XX века, которые в лучшем случае писали на чистом C, сегодня считающимся самым быстрым языком программирования высокого уровня. А то и на ассемблере приходилось писать, который для каждой архитектуры, а то и процессора — свой.
Вдобавок если считать, что программисты не "яблока" — это программисты, занятые Android, то они поддержку кучи различных систем решили просто установкой байт-машины Java. Довольно универсальное решение, однако оно имеет недостаток в виде снижения производительности и времени работы от аккумулятора. У Apple на их системах всё нативно работает, если только программы не на Java, языках .NET и прочих с реализацией виртуальной машины.
всех программистов в кривые руки. Куда же ещё.
И 55 секундный ролик, предварительно охлаждая. Т.к. дольше уже в перегрев уходит.
Она создала программно-аппаратный комплекс. Не только процессор, но и ОС оптимизировала под этот процессор. Интел или АМД не может оптимизировать винду под свои процессоры, поэтому никогда не сможет добиться максимальной производительности.
+, тоже самое и с айфонами, ос+процессор, беда андроида что его ставят везде где только можно под разное железо, в связи с этим костыли будут всегда
Тут нет никакой магии
1. 5 нанометров против 10-14 нанометров у Интел
2. В Интел процессорах есть много устаревших блоков для поддержки совместимости со старыми приложениями, которые обычному обывателю не нужны, но они занимают место и покупатель за них платит.
АРМ плюет на совместимость, есть градации по поколениям, но нам с тобой тоже плевать, весь актуальный софт работает без проблем
3. Интел без конкуренции обленились и уже 10 лет дают лишь 5% позорных прироста, их обойти было легко
Но не десятикратной разницей в эффективности.
Подождём реального пользовательского опыта, а то может оказаться как со смартфонами. В попугаях они обгоняют серверные процы, а на практике ровно наоборот.
Ну по факту там уже немного ненужных блоков. Там больше архетектурных особенностей. Как контролёр pci - e, что нельзя назвать старым, просто архетектуре тяжелее. Там даже инструкции более или менее в порядке. Даже avx иногда нужен и может поднять скорость.
В одноядерной синтетике, а что скрываете бенч на все ядра. Однопоток ещё с сандибридж значительно не менялся.
Там даже 18 года, в мульти тот же гикбенч получает 22500+, а тут уровень мобильных костратов 2012 года.
Они замеряют пик, а дальше пусть хоть сгорит )
И да, ждём АМД с их 5600U.
5400G
Действительно, он же и mini стоит, т.е модно сравнивать и с U и с G
но и сравниваютего с i7 1.7 qc
фотошоп будет в начале сл года
Под виртуализацией после 17 числа люди попробуют все, не волнуйтесь. А под arm Adobe Ps в 2021 выпустит.
(Комментарий удален)
очередной десктопный труп на арм проце таких на минде было десятки и все без исключений провалились на маке не думаю лучше будет особенно учитывая что это ОС для меншинств ...