RISC-V — тупиковая архитектура. По сути это MIPS с переименованными регистрами. Она давно опоздала .
Даже в микроконтроллерах уже R7 и никаких шансов у RISC-V нет.
Самый быстрый это AMD Ryzen 9 9950X
Самый энергоэффективный Ryzen 7840U даже не ARM а скоро выйдут Turin Dense
Самый надёжный ARM Cortex-R7
Нечто древнее но важное совместимостью AVR.
В автоиндустрии стандарт ARM и никто уходить не будет.
Если китайцам нужна секретность то у них:
1. Полные не обсфурцированые ядра ARM которые на последних HiSilicon нет парашникам их не дадут.
2. SPARC V9 Longsoon
3. Am29000 SW26010 shenwei
4. Centaur CHS Zhaoxin
5. Ну и обсфурцированые Zen 1 Hygon
RISC-V не имеет ни одной сферы где он имел бы преимущество. Особенно веселят те тупые х-сосы не понимающие разницы между простотой команды и сложностью её реализации в железе и что оптимизирующему компилятору которые скоро очень сильно улучшатся это нах не нужно.
Так что RISC-V скоро пройдет.
Вообще в истории видеокарт было не так уж много скачков.
Первым был 3DFX Voodoo.
Второй — появления HW T&L в Xbox, Geforce 256 2000 год.
Третий скачок это появление GPU GTX8800 2006
Четвертый — HD7990 2013 год, особенность этой карты что она это тоже самое по производительности что RX480 и RX580 2048, RX 6500 XT. Там 6 гигов памяти что до сих пор используется 95% игр.
Что с памятью.
Картинка 720 линий требует 768 мегабайт максимум если UE3 больше не нужно вовсе. Надо понимать что основное разрешение тогда это 768*1024. Что фактически даже меньше. Я тогда использовалась XGA+ 1152*864 это эквивалент 740 линий по вычислениям. Да у меня не было GTX 8800 но те кому я посоветовал очень хвалили так как картинка стала лучше на тогдашних мониторах, так как зерно было на всё Sync линии которые копия с Nec XGA+ нативно. Но у нас тогда этого не знали. Я знал.
Как умудрялись на PS3 обходится 256 мегабайтами? Там использовалась технология Fluide то есть любое отражений было отражением в воде. Упрощённым и проявляющимся только если подойти очень близко. А на общем плане это был просто Bump Maping и отображением источника света. Одного реже восьми. Карта освещения. В остальном там использовалось разрешение 480 линий. 1080 отличалось лишь тем что использовалась более четкая текстура а количество полигонов было как в 480 линий. Так что там 1080 и не было. На 480 конечно хватает 256 мегабайт с очень приличными эффектами.
Картинка 1080 линий требует уже в четыре раза больше. Так что тогда хватало 3 гигабайта. Опять таки если камень справлялся.
Потом эффекты стали сложнее а модели более детализированными. В реальности 1080 сейчас требует 5-6 гигабайт что все тесты и показывают. Отжирать больше стали более многополигональные модели. Также более широкое использование карт отражений и SSR.
А дальше это уже нужно только большим разрешениям.
Например 1440 уже в некоторых играх требует 9 гигов.
4к требует 16 гигов. Но там такой момент что тянут их обработку только топы. 3080 и выше. А вот у остальных апскейлинг то есть самообман и мыло.
Глаз человека в динамике в 90% не видит больше 1080 60 Гц.
А в 99% 1440 75Гц абсолютный предел. Потому что он не охватывает больше чем 23.8 дюйма с той дистанции где видны пиксели.
Если экран больше, чтобы его видеть надо сидеть дальше, а если ты сидишь дальше ты не видишь пикселей.
123 dpi это ограничение в целом а с учётом сатурации 147 dpi это человеческий глаз такой и тут ничего не поделаешь. С 123 до 147 улучшается цветопередача и ощутимо. Почему дизайнерам нужно не менее 147 dpi.
Но в играх 123 dpi предел.
Отчего дебилы и не видят апскейлинг. У них глаз не видит больше 123. Ресурсы гоняются туда сюда в пустую.
Но работает самовнушение и маркетинг.
Пример недавнего тестирования: 30% людей даже больше 35 кадров в секунду не видят. А 24 как мы все знаем уже вполне плавно субъективно.
Аналогично и по DPI.
Так что причина почему с 2013 года люди не видят улучшений на самом деле кроме людей внушаемых состоит в том что глаз человека анатомически не способен увидеть более 123 dpi в динамике. Есть уникумы что 147 способны. Но это всё. Дальше это уже проблемы сатурации а не разрешения. Которые видны в статике как перепады цветности которые создают вертикальные полосы. Их то человек и видит.
Конечно на смартфонах экран держим ближе поэтому нужно в два раза больше dpi. Но не более того.
Так что если играть в 1080 то больше 8 гигов не нужно 100%. Даже 6 достаточно.
Если в 1440 то нужно 9 гигов в ряде игр НО если PCI-E 15,7 гигабайт то достаточно 8 гигов успевает загружаться. Ну конечно если выставен лимит кадров а ебанат с 144 Гц.
Ещё раз больше 75 Гц человек не видит кроме уникумов на адреналине до 26-29-лет.
А 90%+ не видят и более 60Гц. Даже 75 Гц видят на самом деле только люди до 30-35 лет с идеальным зрением. Те кто уровня пилота истребителя.
Почему никогда 75 Гц на ЖК не использую. Нет смысла. На ЭЛТ так выравнивалась пульсация луча, но на ЖК её нет. Когда на ЭЛТ использовалась 100Гц на сони это было видно потому что искажения пульсации в начали и в конце кадра были большие. Но ЖК работает на просвет а поэтому там и не может быть искажения так как нет пульсации луча, там нет луча. Хотя LED подсветка дешёвой реализации с уменьшением яркоси даёт мерцание.
На OLED высокая частота снижает искажения цвета но в IPS нет и такого недостатка.
Мониторы более 75 Гц это обман. Необходимость более 8 гигов для 4060 это обман. Так как она не может просто обработать 4к честно без апскейлинга. Хочешь 4к честно? 3080 4070 3090 4080 4090 6800XT 6900 7800 7900 там оно честно 2160*3840 точек. 12 гигов в 3080 уже создаёт некоторые проблемы так как впритык и нужно 31.4 гигабайта PCI-E для подгрузки и они там есть. То есть она полностью справляется но в притык. А вот у 10 гиговой версии в некоторых играх есть падение fps при подгрузке но небольшое и кратковременное.
В тоже время на более маладших настоящего 4к и нет вовсе.
Но самое веселье в том что настоящее или не настоящее человек эти 4к увидеть не может. Может внушить себе что видит.
147 dpi это 1710 на 3040 на 23.8 Но в реальности достаточно 123 а это 1440 линий.
Так что люди с хорошим зрением заметят и переход на 1440 линий но дальше это психическая болезнь. А люди с обычным зрением будут видеть зерно на 1080 23.8 только в статике.
Так что да если ты игроман или дизайнер или проектировщик, то надо иметь монитор 1440 линий при диагонали 24. Но выше лишено смысла. 75 Гц для игромана, но выше лишено смысла. Если говорить о киберспорте то нужно 90Гц для чемпионирования. Если у тебя уникальный организм. А дальше нужен хороший психиатр так как шиза видит то чего нет. Видит то что не видит глаз человека. От чего все адепты 4к люди психически неуравновешенные. 4к нужно да для экрана 32 дюйма. Для больших ТВ панелей. Но 8к это психическая болезнь. Человек не видит их. Это больше чем разрешение киноплёнки. Даже самая лучшая кинопленка это 4к. Это к вопросу о том на сколько реальны все эти мегапикселя в фотокамерах. В реальности это очень часто больше разрешения принтера.
То что нужно только для увеличения площади участка.
Вообще нигде в этом не было какого-то линейного роста как рисуют маркетологи. Была просто ужасная картинка до GTX8800 и была картинка потом а также картинка после HD7990 уже нынешняя. Да конечно на X800 появился первый настоящий 3D а не нечто дубовое с УГ цветами так что я предпочитал играть в рисованные игры с целл шейдинг. Так как 3D было просто ужасным и не менялось со временен Blood Choisen до FarCry2. Где появилась первая не блевотная графика. Тот же Morrowind графически просто дно. Oblivion уже терпимо. Но то что реально можно назвать графикой появилось на UT3 и GTX8800 Frontlines Fuel of War как раз про войну в 2024 году в том стиле в котором она сейчас в Украине. И Borderlands 2, Lost Planet 3. Также GearofWar. Но и там всё очень слабо. А вот кинокачество это уже последняя ступень в 2013 и с тех пор всё уже зависит от игроделов, движков и достаточного количества памяти на разрешение. 1440 минимальное требование это Radeon
R9 290X и вышел он в ноябре 2014 года. Он первый мог честно 1440 без просадки кадров. Но опять таки 2014 год а потом художественный свист и лапша на уши. Та видеокарта не только была с 8 гигами но и вычислительной способности хватало. Соответственно 7990 хватало ещё больше и она вышла раньше но было 6 гигов и бывали подгрузки с небольшими проседаниями частоты кадров.
А потом, потом идёт топтание и RTX который когда движок правильный и игра написано правильно не нужен вообще и никак не улучшает. картинку.Просто людей дурачат.
Тут же ложь заключается в улучшении картинки. Также обман и в DDR5 она нужна только для обучения матричных алгоритмов. Но это реально мало кому нужно.
Лох обязан платить.