Журналисты рассказали, что на выставке Е3 использовался реальный билд Cyberpunk 2077, для запуска которого понадобился довольно мощный компьютер. Показ научно-фантастического творения CD Projekt RED произвёл на публику неизгладимое впечатление: выглядит игра невероятно ярко и красиво. Правда, эффектная графика могла натолкнуть на мысли о том, что новинка будет весьма требовательна к железу — и представители студии подтвердили опасения.
Выход долгостроев вроде Cyberpunk 2077, работа над которыми кипит много лет, всегда сопряжён для пользователей с беспокойством о том, потянет ли их РС ресурсоёмкую новинку. И хотя специалисты сомневаются в реальной необходимости ультравысоких настроек графики, для пользователей это всё ещё остаётся головной болью — и CD Projekt своими откровениями лишь подлила масла в огонь.
Во время Е3 журналистам эксклюзивно продемонстрировали геймплей футуристической новинки: информация о том, что это будет «RPG от первого лица», несколько поумерила пыл геймеров, но в целом публика осталась довольна рассказами прессы. Дальше последовали закономерные вопросы: когда ждать выхода и какой компьютер потребуется для всего этого великолепия. Если с ответом на первый польская студия предпочитает повременить, то любопытство жадных до технических подробностей фанатов команда решила удовлетворить. Комьюнити-менеджер CDPR выложил в официальном канале Discord спецификации РС, на котором запускалась демо:
- процессор: Intel i7-8700K с частотой 3,70 ГГц;
- материнская плата: ASUS ROG STRIX Z370-I Gaming;
- RAM: G.SKILL RipJaws V, 2x16GB, 3000 МГц, CL 15;
- видеокарта: GeForce GTX 1080 Ti;
- SSD: Samsung 960 Pro, 512GB M.2 PCIe;
- блок питания: Corsair SF600, 600W.
Представитель компании не уточнил, на каких настройках была запущена игра, однако журналисты предположили, что речь идёт о разрешении 4K и 30 кадрах в секунду. Впрочем, пока что рано делать выводы: это не официальные системные требования, а к моменту релиза RPG, скорее всего, оптимизируют.
Другая новость, которая наверняка заинтересует многих: стало известно, что трейлер научно-фантастического произведения действительно был снят с использованием реального движка игры, а не просто отрисован дизайнерами специально для показа на Е3. Марчин Ивински, глава CD Projekt, уверяет, что студия «ничего не подделывала» для видео. Финальная версия Cyberpunk 2077, таким образом, не должна сильно отличаться от того, что было показано в ролике.
Источник:
да вполне адекватно для показа еще невышедшей игры в стабильных 4К@30
Графоний просто шик, уже сейчас видно, геплей еще успеем заценить
Ну ещё бы, в отрендеренных роликах то. В Call Of Duty тоже графоний в роликах, нарисованных отдельно от игры, шик, а в самой игре кошмар из 90-х.
Ну вообще то игру показывали на закрытом показе журналистам. Им давали играть какое то время. И никто из журналюг не жаловался на отличие графике в игре от трейлерной
на то они и журналюхи
Новость прочитайте
Вы в каком-то другом мире живёте или для вас просто новость, что требования и графика в игре на таком этапе разработки мало что имеют общего с конечным продуктом? Вспомните хоть историю с порезанной графикой Ведьмака.
Сейчас бы прочитать конфигурации ПК на котором запускали демо и решить что это рекомендуемые конфигурации ПК... рукалицо
это конфиг для 4k 30fps, так что в 1440p/1080p на твоем конфиге игра должна будет работать без проблем. Плюс учитывай, что игра может выйти даже не со следующим поколением видях, а еще позже. К тому времени твоей пекарне уже будет года 3/4 и она действительно будет не той машиной, на которой стоит рассчитывать на 4к 60фпс в свежих тайтлах.
Это для запуска не оптимизированного продукта в 4К 30 FPS. Вполне нормально. А новость внимательнее прочитать советую
Не путай ролик с демкой.
Вспомни ведьмака, какой графэн был на роликах, и какой получили в итоге. Так что, слюни подбери )
Согласен. Толку ноль с этих видосиков по которым нереально понять что вообще надо будет делать в игре. А то что они блогерам и прессе дали поиграть (или не дали, но заплатили что бы те хвалили по самые уши) к примеру Лонгвинов и ему подобные... Это вообще ситуацию не прояснило) да и дату релиза... Какой то ждалкерпанк получается) если и дальше так будет все развиваться, то игру каждый год будут реанонсировать и выйдет она в году так 2077) ну а что) все же прекрасно знают, что из себя представляет эта Польская студия, учитывая как у них разработчики увольняются)
А что там показывать? Они сами говорили, что игра еще дико сырая и им предстоит много работы. А если бы они показали сырой прототип комьюнити, то все бы сразу заорали "фу, лагает, графика 1996 год, г*вно" и т.п.
Да, все знают, что представляет из себя эта польская студия - ведь именно они и создали тот шедевр, под который сейчас косят всякие ассасины, высасывающие деньги у игроков за несколько часовые длс и кучу скинов.
Что вы тут все за чушь несете? Нормально поляки все оптимизируют к выходу, тем более игре ещё как-то придётся работать на морально устаревших консолях. Тестовый билд последнего Ведьмака вообще шел на связке из нескольких видеокарт, и-то с просадками. Тут же все запустили на "обычной" геймерской сборке без явных замечаний к производительности, да и скорее всего на высоких настройках в 4К.
Мыльцо на консолях - да ладно? Никогда такого не было и вот опять! А на ПК все будет зависеть, как ни странно, от вашей конфигурации. Но разве так не всегда было?
Я больше чем уверен что игра выйдет аккурат со стартом нового поколения консолей
Крайне сомнительно, иначе это бы означало, что игра изначально разрабатывается с упором на новое поколение, что в принципе невозможно, так как даже сам факт существования рабочего "массового "прототипа PS5/PS One (типо перезапуск, почему бы и нет) для разработчиков под вопросом. Они не станут переписывать движок и игру с нуля за год. Имхо, Киберпанк выйдет к лету-осени 2019 (может даже весной, но вряд ли, ждем Gamescom). PS5 зимой-весной 2020 в лучшем случае. Но на Е3 2019 ее могут просто анонсировать и показать новые эксклюзивы с припиской "Ожидайте и на PS5".
да, эта польская студия не ставит конкретных сроков тогда, когда не может их гарантировать. Но они тебя игру предзаказывать заставляют или еще что-то? Они просто пришли и показали, что собираются выпустить игру, показали, как примерно она будет выглядеть, и сказали, что если вам понравилось, то ждите релиза. Было множество игр, которые вышли сырыми из-за желания уложится в срок. Так что пусть делают, сколько хотят, главное, чтобы выпустили хорошую в момент выпуска игру.
Eго показывали правда за закрытыми дверями и с запретом на сьемку.
"однако журналисты ПРЕДПОЛОЖИЛИ, что речь идёт о разрешении 4K и 30 кадрах в секунду" Ох уж эти журналюги
Уже как пару лет только и приходится записывать название крутых игр в блокнот , чтоб сейчас не портить себе впечатление от минимальной графики на старом ПК.
Ведьмак это уже давно не показатель
Показателем был есть и будет этот ваш кукурузис)))
Crysis 3 на максималках идёт на GTX 660 из 2013 года в FHD.
ага, идёт с кинематографичными 24 к/с
А разве был? Нормальные люди тестируют свои сборки в бенчмарках.
Так кукурузис не совсем игра, а вот бенчмарк отличный. После выхода наверно ещё лет 5 задницы поджигал.
Ну да. А я спорю? Я про Ведьмака.
Первый кукурузис уже на GTX 8800 шёл на максималках отлично с тогдашними 1280х1024. =)
в DX10 на макс. было 12 фпс.
В первом Crysis вообще криво работал DX10 и некоторые его баги так и не пофиксили, оставив их решение для второй и третьей части.
А что показатель?Батла 1 которую 1080ti вытащить на ультрах в жёстких замесах не может?
Вполне показатель. Джае 4-ка батла всё ещё тяжёлая и многие видюхи типа той же популярной 1050 Ti там в FHD только минимальные настройки осиливают. =)
Смешно
Это не смешно, это печальная действительность.
ЛОЛ.Недавно играл в БФ 4 на i5-4750S и 1050ти от асуса,НА УЛЬТРАХ в стабильных ~100 фпс,лол,НА УЛЬТРАХ
Включи FHD разрешение, что ли. А то с 800х600 разрешением и на 750 можно на ультрах играть.
А что щас? Серьезно, хоть запущу, проверю)
Ведьмак довольно странная игра в плане настроек графики: как их не крути хоти минимум, хоть ультра, фпс одинаковый, у меня во всяком случае.
Значит упор в проц.
текстуры влияют только на занимаемую видеопамять, если с ней проблем нет, то ФПС изменится в пределах погрешности.
Вот с этого места по подробнее
На 24-ой секунде трейлера сиотрите внимательно в левый нижний угол 😂
*смотрите
Эм... и вас, конечно же, нисколько не смущает, что этот продукт очень далёк от стадии завершённого ?
stalkerr37,
Впомни показ геймплэя Анчартеда4, там Дрейк вообще в текстуры улетал:DDD
не трать деньги на этот хлам, подкопи на лучшее
1050 что обычная, что ti это скорее решение для офисного компа. Так же как i3 проц
Нормальный офис, в общем-то, для работы обычно такие карты и берут (950/1050), чтобы офисное ПО не тормозило.
На 120 это вообще тема. Меньше будут фильмы на работе смортеть.
Для работы и 60ГБ достаточно. =)
Даже больше скажу, даже не простое офисное ПО, вроде сред разработки ПО, отлично чувствует себя на встройках. А вот остальные компоненты нужны уже посерьезнее.
А куда тогда 1050? Это и есть офисная затычка, ни на что не способная. Или её в игровые сборки берут? Не смеши))))
Они там просто не нужны. Это просто неплохая карта для домашнего развлекательного компа, чтобы изредка на средних - минималках в современные игры погонять, и прочее. Это обычная простенькая современная карта. Но никак не "офисная затычка".
у меня 1050 4гб, все на максималках тащит, про какие минималки вы говорите?
Это не он, а товарищ чуть выше высказывается в подобном ключе.
у меня 1050ти, и, наверное, мы с вами в разные игры играем....
i3 8100 = i5 начальным прошлых поколений, 4 ядра не вывозят уже давно. Нужно либо брать новый i5 либо от Ryzen 5 1400
А какой смысл если проц с уже интегрированной графикой? Даже тот же фотожоп вполне себе работает.
Хреново работает фотожоп на встроенной графике, это я тебе по личному опыту говорю. Лучше уж какую-нибудь древнюю видюху взять, типа GTX 650 4GB и сразу почувствуешь разницу с фотожопом на встройке.
650 4гб? :D
Ага, не в курсе, что такая есть? Теперь будешь знать. Стоила не больше 3К рублей в магазине, классная офисная видюха.
А чё смешного?
Офисные затычки выпускаются в серии GT. Может конечно у элитного офисного планктона и есть печки 1050, но это в параллельной вселенной.
А gtx 50х моделей для игровых ПК начального уровня.
Видел, конечно. Сам как бы работаю в офисе на ПК. На данный момент видюха 950. Стандартная офисная видюха. То, что она кое-какие игрушки тянет на минималках в FHD, не отменяет того факта, что она стоит дёшево, работает тихо и тянет любое офисное ПО. И, нет, не только работа с графикой. Многие программы требуют мощностей. Поверь, работа в офисе не упирается исключительно в MS Word и 1С Предприятие.
Странные люди.
рабочий комп - это либо комп для браузера/офиса/легкой обработки фото, для которой хватит встройки, либо серьезная рабочая станция для видео монтажа/3д рендера/работы в PH с несколькими сотнями слоев и подобного. Так что ситуация вполне нормальная, только для видео и PH gtx 1070 должно без проблем хватать во многих случаях.
Ты не прав. Я работаю с картами, например. Вся моя организация с ними работает. Там огромные изображения на десятки тысяч пикселей и с большим количеством слоёв. Работа ведётся не в фотошопе, а в спец. софте. Обработки фото, видео монтажа, игр - ничего этого нет. Но без видеокарты (хотя бы бюджетной старенькой уровня GTX 650 4GB) работать сложно, ПО загружает все 16ГБ ОЗУ и тормозит. Видеопамять видеокарты значительно быстрее и львиную долю забирает на себя.
Ану скажи какие именно игры она еще тянет на минималках в фулл шд? Она 80 процентов игр как минимум на средних вывозит, ну если тебе не нужен фпс выше герцовки офисного монитора
Ну, например Battlefield 4 она даже на минималках в FHD не тянет с играбельным фпс, а это игра 2013 года. А так, я даже не проверял особо, что она тянет, а что нет.
Ну не знаю, моя 760 в онлайне на средних фпс обычно держит около 60_70(иногда есть просадки до 45, но очень редко),а она по факту чуть слабее или паритет с 1050 может ей процессора не хватает нормального?
Я про 950 писал, ну, 1050, в принципе, тоже не далеко ушла.
> может ей процессора не хватает нормального?
Ну, если i5-3570 не нормальный процессор, то не знаю.
Вот на кой черт вам этот i3 возьмите сборку rx 580/570/560(что будет позволит) и разен на b350. Дёшево,сердито,практично.Нвидиа всегда мощнее и АМД.Но АМД надёжнее (особенно линейка сапфир и Асус).От покупки Интел я бы вообще отказался ,понавыпускали заплатак безопасности и комп заметно медленнее начал работать.
Вот я почти уверен, что у вас нет ни карточки от нвидиа, ни процессора от интел. Зато есть злые языки в интернете, утверждающие, что у АМД с драйверами на видео все не очень гладко. Мол в одной игре один драйвер хорош, но в другой все совсем наоборот, по сравнению с другим драйвером. Про надежность тоже вранье, все это предрассудки и банальный фанатизм от конкретного бренда, что конечно же глупо.
Если речь о бюджетной сборке, то райзен я бы тоже не рекомендовал, ведь покупка амд подразумевает под собой разгон,
а разгон подразумевает хороший бп, память, мать, что несет за собой дополнительную денежную нагрузку. Покупать райзен без разгона бессмысленно, ведь почти за ту же цену мы получим уже готовую производительность от интел, равную или даже превосходящую производительность райзена в разгоне. Только интелу не нужна дорогая память, мать и разгон.
Конечно, вы можете мне предъявить за количество ядер и потоков у райзена, но я по опыту фуфыкса могу заявить - это не существенно. Кто то до сих пор ждет пока он "раскроется".
интересно было бы увидеть некие подтверждения даного опыта.
у вас нет интернета?
Разгон ,нафига он нужен 6 ядрам и 12 потокам ,а обычная конфигурация без разгона на hdd wd black(можно сменить на ссд ) razen 1600((со штатным охлаждением) заметьте без x) и 560rx ,обсалютно все игры тянет на средне-высоких и вплоть до ультра(40-60фпс в зависимости от игр) в 1080.Насчет дров согласен не все игры дружат с райзеном ,но это проблема не производителя ,а кодеров которые делают игру,яркий пример арк который редко ,но падает с критическими ошибками .Насчет дров для видеокарты ,с ними все гладко.
Насчет разгона ,ответе сначала себе на вопрос:"Зачем он?".А потом пишите.Мать дорогая для разгона,а у Интел?Новое поколение новая мать 23k(против 13 за ряженку) + ещё сверху 5k на более менее нормальную мать+- оперативка нового ппокаления.А АМД у них 4сокет до 2020 ещё продвигается будет.Это огромный плюс для буджетных сборок.
А теперь наивкуснейшая рубрика какой производитель надёжнее АМД или нвидиа.Как я выше писал АМД в вариации от Асус и сапфир самые живучии 10 лет видеокарте ,а она даже артифактами не плюется в соседней машине 760 сдохла через 3 года?В консолях, вот это да ,АМД стоит.Наверно не спроста.
Нвидеа и Интел всегда будет лучшем вариантом если у вас есть деньги на полностью топовые решенич.
А АМД остаётся лучшем БУДЖЕТНЫМ вариантом.
Извиняюсь за запятые и т.д.
Действительно,зачем разгонять процессор с разблокированным множителем и припоем под крышкой. Зачем нам лишние 10 кадров в тех же играх., чтобы не сливать 8400у за те же деньги. Сэкономив на комплектующий сейчас, ты уже не сможешь раскрыть потенциал своего процессора потом(когда приспичит), опять же из за того, что когда то ты сэкономил и не купил оперативку с хорошим разгоном.
rx560? Это даже хуже чем днищинская 1050ти. И под дровами я имел ввиду дрова на видео карту. Но спорить не буду, у меня нет радеона, чтобы в этом убедится.
Вот прям сейчас набросал в калькуляторе ДНСа 2 конфига: на r5 1400 и i3 8100 + дишманская мать + 8гб оперативки + БП 550 ватт. И знаете что? И то, и это стоит одинаково = в районе 20к, так что не надо обманывать.
И какой же смысл в сокете до 2020 года? Я понимаю, если бы владельцы древних фуфыксов могли воткнуть новенький райзен в свои старые материнки, вот это да... глядя на минувшие годы, можно сделать определенные вывод, и предположить, что замена например i3 8100 на i7 8700 в 2020 году будет не такой уж и провальной идеей.
Асус, сапфир... Я вам тоже могу тут написать "кулстори", как и любой другой юзер.
Консоли. Насколько мне известно, jaguar от амд есть апу, а в тот момент(как и сейчас) апу от амд выдают большую производительность в 3д, так что тут дело не в надежности. Просто у амд больший опыт в создании апу.
У меня получилось 33
С видюхой?
43500 в полной сборке ,можно ещё дешевле(проц oem а не box и блок питания дешевле).С на базе амд на 6 дешевле.Но опять же что первая сборка что вторая "ультра буджетки" со всеми вытекающими.
На обе сборки могу скинуть ссылки )
Но я думаю это того не стоит.
давай давай скидывай.посмеюсь хоть.
Если ты не заметил, то я уже писал что"r5 1400 и i3 8100 + дишманская мать + 8гб оперативки + БП 550 ватт стоит 20к". Что же туда ещё можно засунуть за 43к? Средний корпус и 1066, которая уже не является ультра бюджетной. И вообще такой конфиг потянет все игры в ультра/высоких настройках.
Мм 8 гигов оперативки 6 т.р. проц 10 мать 5 ,блок 2 ,жесткий диск от 2 600 -5200, корпус 1 ,винты 500,видеокарта 9-11 .Я ещё раз пишу могу скинуть сборку в днс"Технопоинт" (Хабаровск),сборка в любом случае ''попахивает'' и очень в притык.Докинеш ты 1060 ,да конечно.Вы типичный ''школьник'',для которого ПК это только : процессор и видеокарта.
technopoint.ru/custompc/configuration/d7ca72b4269bfae9/
ipic.su/img/img7/fs/2018-06-21_17-15-39.1529583476.png
Почти такой же конфиг, только вместо мусорной затычки 1050ти у нас полноценная 1060 на 6 гб. ЛОл да и стоит оно даже на 500 рублей дешевле того мусора, что ты скинул. ох вейт, корпус можешь и в этой забегаловке технопоинте купить купить
Покупать к такому можно в процу столь слабую видюху - кощунство
Самый раз ,с запасом на будущее.
Про заплатки тоже вранье. Я лично никак не ощутил. Ютуб так же говорит, что падение равняется погрешности тестов (1-2%).
Так же смею заметить, что все эти уязвимости были воспроизведены в "идеальных условиях", так что о обычных юзерах речи не идет.
Окей ,вам с вашем i3 или i5 , допустим и незаметно ,но в офисе где стоит 5 пк на Дуо и пни очень заметно.Хотите переубедить?
на дуо и пни вообще часть заплаток не вышла, так-что если хочешь переубедить нас, то найди тесты в интернете и скинь. Единственная ситуация, в которой реально просела производительность - IO на SSD, в результате базы данных и подобные вещи стали работать существенно медленнее, но это замедление играет серьезную роль только на HighLoad серверах. Обычные компы столько запросов к диску делают только в бенчмарках.
На средних может пойдёт. У меня фар край на минималке 40_60 фпс выдаёт на i32120 gt750 6g оперы }}}калькулятор.. Танки на высоких, фул нд
Для игр такое не годится. Лучше возьми какой-нибудь старенький i5/i7 прошлых поколений за эти же деньги и поднакопи до 1060 3GB хотя бы.
i3 8го поколения = i5 предыдущих поколений
Не верю в эти сказки после 7300. По бенчмаркам мощь, по факту - тормоз. 3570, вышедший в 2012, до сих пор ему прикурить даёт.
а что скажете про i5 4670K ? 2,5 года, полет отличный))) я последние лет 10 от ИТ отошел, в процах уже путаюсь...
Есть интернет, есть ютуб, есть обзоры и сравнения. Тот же i3 8100 за 8к выдаёт равную производительность i5 7400 который стоит уже 12к. 4к выигрыша. Для сборки бюджетного ПК это очень существенно. Так вместо 1050ти можно уже взять 1060
четыре потока в 2018 году? Прелестно
А в чем проблема 4 потоков в 2018 году? Как раз идеальный выбор. Разве что у вас специфический софт под многопоточность
i3 7 поколения были 2ядра4потока. i3 8 поколения - перемаркированные i5 7 поколения.
Ну это естественно если ты взрослый человек, ин е ждешь 4к на 60 fps, а просто хочешь иногда отдохнуть вечером.
Если тебе ногибать, и меряться запредельными fps, то такая сборка действительно не очень
А если взять ещё одну 960 и в спарку кинуть, вроде как должно проканать)
Я думаю и одной 960 хватит)
Слай и кросфаир это херня которая работает в единице случаев и то только в графическом по, в играх нет прироста от спарки, а иногда даже наоборот ухудшение производительности
Бредятина, слай не работает в графическом по, он для игр предназначен
Вы на досуге попробуйте а потом будете говорить
Это вам бы на досуге почитать, как работает слай, и как при этом рендерятся кадры в играх) Графическое ПО по типу 3д рендеров никогда не потребует слай, если в комп втыркнуто >1 карты
SLI и CF - технологии для игр. Все ПО, которое проводит вычисления на GPU может работать без них, можно просто воткнуть несколько видях в комп и ПО их примет.
Но SLI и CF действительно не со всеми играми дружат, поэтому одна мощная видюха всё же выгоднее двух слабых.
С чего это баня сгорела? Да, по памяти прироста не будет, но в других процессах на 50% производительность повысится (нвидео заявлят про "в 2 раза", если одинаковые карты, но у меня смутные сомнения на этот счет). 960 бралась с расчетом на покупку через 2-3 года еще одной 960й, (ну и еще 1080 или 1060 вышли через месяц, и 980 стоила как конь...).
Им нельзя верить в плане графики.
Ну давайте ещё ведьмака некрасивым назовите.
Дальше что?
Я не спрашивал понравился ли он вам. Но с графикой, антуражем и арт дизайном у игры всё в порядке.
Картинка в игре приятная, но отрицать что в игре большинство текстур довольно низкого разрешения глупо
уважаемый, выше ярый фанат ведьмака, там ваще бесполезно спорить. Запускал ведьмака сразу после скайрима - разницы ну вообще не ощутил (на максималках обе). Так что пусть дальше кричат про идеальный графоний, это у них (фанатов) сродни кукурузису, хотя, стоит признать, что кукурузис реально был в свое время шикарен в плане графония.
Как вы ловко всех по категориям раскидали, однакож. Т.е. те, кто не согласны с вашим мнением априори не правы, и просто слепые фанатики ? Так, что ли ?
Да нет, просто пояснил, что игра 2008 года мало практически не отличается от игры 2013 года, и ставить ведьмака на вершину графония как минимум глупо, ну и доказывать, брызжа слюной - ваще бред. Да, красиво, ну и? Я равнодушен к ведьмак 3, как и ко всей серии. Книги мне понравились больше. Поэтому не понимаю этого хайпа, что уже несколько лет не утихает.
З.ы. ведьмак 3 давно куплен и пройден до середины, надоело.
Да вроде никто и не говорил, что это шедевр графония, но выглядит он вполне достойно и симпатично, только и всего. И говорить, что он ущербный и унылый, а так же всё в таком духе,- мягко говоря не совсем соответствует действительности.
О_о я и не говорил такого, если что. Вполне красивая игра. Но не эталон. Мы походу о разном)))
А мне понравился, соответственно теперь ваше мнение в корне неверное и не имеет право на существование.
а я читал, что дальше?
Начни копать скважину до астеносферы. Как закончишь дай знать, скажу что тебе делать дальше.
Без внятного ТЗ результат ХЗ, откуда начинать? Чем копать? Сколько платишь? (Вопросы идут наоборот)
само собой даунгрейд, демки жеж рендерят на мега пк, или вы б хотели чтоб в минималках указывали что к ведьмаку надо sli, crossfire?
ДАунгрейд был, игра вышла очень красивая и красочная, даже на 2018 год она неплоха, есть моды, если графики не хватает, по сетингу по колориту по атмосфере ето 10 белых волков из 10, и ето при том что я не люблю ни 2 ни 1 ведьмака, не люблю игры от 3 лица, но от ведьмака оторваться не мог.
моды + решейд и все проблемы решены.
Проц не раскрывает видеокарту)
Нынешний 2600K как я понял в некоторых играх нижнею планку фпс не очень хорошо держит. Но лучше уж купить мощную карту, чем процессор который фпс не сильно прибавит,но и до него очередь дойдет.
Я долго думал о каких играх вы говорите а потом вспомнил ,да есть такой затык некоторые игры не поддерживающие многопоточность "срываются".Но это уже не от железа зависит ,а от разработчиков.Если верить амд.)
Ярким примером будет пока где редко но случается подобный срыв обычно заканчивается просадкой ,еще реже вылетом с критической ошибкой.
Вместо где -ark
Ошибок нет, да и в большинстве случаев карта выдает 90%+ своей мощи, если верить тестам в сравнении с другими процессорами нынешнего 2600K. Брать бюджетный вариант тут не хочется, а под нормальный надо 700-800$ на процессор с материнкой.
Как мощность блока питания влияет на картинку? Как SSD влияет на скорость, если карты грузятся и играются в оперативе? Ну и самое главное: как наличие доп плюшек на матери и оперативке вообще на что-то влияет? Там все эталонно и зависит от чипсета и частоты памяти (которая в принципе особой роли не играет)
А как сравнить если не указать конкретные модели? SSD две недели тому назад еще был топом для М2. Z370 у всех производителей идет с наворотами не нужными экономным любителям обрезков. Идея о тот, что после загрузки уровня важна только производительность видеокарты ошибочна. Каждый элемент имеет значение.
почему тогда не указа модель видеокарты? Z370 идет у всех одинаковый, от лишнего порта у него производительность не вырастет и не просядет. Он одинаково будет работать что на якобы игровой плате, что на обрезке. SSD важен только для загрузки уровня, на качество картинки не влияет никак.
Ну каждая видеокарта имеет требования к бп, ссд позволяет уровень быстрей загрузить в оперативу, про частоту памяти скажите райзенам.
очевидно, что для карты нужен БП определенной мощности. Логично, что 1080 на 200 ваттном блоке никто запускать не будет. Здесь же реально реклама производителя.
ну хз, возможно реклама, бп кстати давно сняты с производства, за остальное хз, ну не на райзенах с радеоном им жеж показывать геймплей.
просто можно было написать чипы, частоты/спецификации и мощность БП, как сделано в случае с видеокартой.
И ради этого тратить деньги на апгрейд? Имхо, с 2006 года графика мало изменилась. Всё та же плоская трава, плоские ветви и листья.
Мм вы видели в сингл игры вообще не играете.
Как раз в онлайн не играю вообще.
а какие есть еще варианты?
на это можно посмотреть под другим углом, вообще не принимая во внимания графику, новые игры имеют более высокие требования, хотите в них играть, готовьтесь к апрегрейду
кстати crysis вышел в ноябре 2007 по этому ваш 2006 год мимо кассы вообще
да и у какой игры 2006 года графика не хуже чем в Ведьмак 3 например? даже с учетом травы и веток?
А что, "Кризис" - эталон?
По второму вопросу. Микрочипы становятся мощнее, а графика всё та же мультяшная(хотя так можно мультипликационный фильм оскорбить, нарисованная картинка будет выглядеть реальнее, чем компьютерная). Шерсть, волосы, одежда, кожа - не естественные. А раз так, имхо, лучше ресурсы игры тратить не на "графоний", а на процесс игры.
главное не как в андромеде)
игры в принципе пустая трата)
да и , практически любая вещь устаревает, ломается
Ваши предложения по поводу железа? :) Titan V, который вообще не для игр? Core i9?
Вариантов много, было использовано стандартное железо, а разработчики рассказывали, что демка очень ресурсоемкая. Отсюда следует, что железо, просто рекламное. Взять хотя бы блок питания, у которого даже запаса по мощности нет, а одна 1080ти может в пике потреблять 400+ ватт.
Это при разгоне 400+ ватт? Открыл официальные спецификации, везде пишут 250 Вт потребляет видеокарта.
Если она потребляет 250 ватт, тогда как у людей в майнинге она жрёт 300-400,например. На полной мощности она никак не может жрать 250ватт, да и у людей фиксирующих по графику потребление системы также выходит около 400 в пике.
перс на тачке,с пушкой, везде беспредел, кого-то бьют ногами, кто-то играет в баскет...в GTA все тоже было в ролике, но по факту это практически никак не сказалось на игре. время покажет. Хотя в GTA V я много часов рубился в гольф ))
Помню до версии 1.07 (в которой вроде добавили шарп на картинку и поправили жор процессора) спокойно играл на G2030 (если память не изменяет) и 750 на 2 гб. С 4 гб озу. Да, статеры и фризы, да 1280*1024, было время. По новиграду лучше долго не гулять, ОЗУ забивается моментально и статеры лезут через каждые 10 шагов. Но! 30% сюжетки (до апгрейда) прошел спокойно. Учитывая то, что все сложные сцены с боями изначально поставлены в закрытых помещениях с низкими требованиями (кроме лаборатории мышовура с полными Hairworks, там и 1080 думаю загнется, моментальная отрисовка появившихся из ниоткуда зверей с шерстью заставляла 1060 фризануть).
Ну да, пока через полгода не выпустят "ультра супер нова" приставку. Кои уже превращаются в специализированные ПК. Пока без возможности апгрейда.
хз, у меня такая чуйка, что игру сделаяют крос геном что бы продать дважды.
ну а что вы хотите от бокса с его 1.2 тф?)))
вот отсюда все и вытекает))
Вероятно это связано с тем, что в процессе разработки игры оптимизацией потребления памяти занимаются в последнюю очередь. Ну то есть убрать из этой формулы мощный проц и чип гпу, оставив только vram и ram - ничего не изменится.