Новости железа
Правила форума
Не переступайте черту, за которой вас начали бы бить в реале. Только вместо драки у нас прдупреждения и баны. Будьте взаимовежливы насколько это возможно. Ваши враги любят стучать на ваши оскорбления и тем самым отправлять вас в бан.
Не переступайте черту, за которой вас начали бы бить в реале. Только вместо драки у нас прдупреждения и баны. Будьте взаимовежливы насколько это возможно. Ваши враги любят стучать на ваши оскорбления и тем самым отправлять вас в бан.
-
- Кто здесь?
-
нет зарегистрированных пользователей и 0 ноунеймов
- zerstoreAn
- MadМолчун

- Сообщения: 1364
- Рега: 21 мар 2011, 21:15
Видеокарту GTX 670 Ti можно "прошить" в GTX 680-?
"Прошить" в одну видеокарту BIOS от другой с учетом, что производитель их графических чипов один и тот же, не так уж и сложно. Даже если программа для обновления BIOS будет «ругаться», ей все равно можно принудительно скормить практически любую прошивку. Поэтому ничего удивительного нет в возможности получения из GeForce GTX 670 Ti видеокарты GTX 680. Более того, эти решения, по заявлениям некоторых источников, построены на базе чипа GK104 и имеют одинаковое количество ядер CUDA.
Китайский сетевой ресурс MyDrivers.com поведал об одной успешной попытке превращения GTX 670 Ti в GTX 680. Для этого понадобилось лишь "прошить" BIOS от старшей карты в младшую. При этом производительность выросла на добрые 40%. Обращая внимание на столь гигантский прирост, коллеги предположили, что у GTX 670 Ti рабочая частота ядра составляет где-то 7хх МГц, а у GTX 680 – более 1 ГГц. Справедливо допустить, что и память работает на более высокой частоте. Однако существует мнение, что графический адаптер GTX 680 получил GPU GK104, производимый с соблюдением 28-нм высокопроизводительного HP-техпроцесса HKMG. Именно по этой причине у него ядро может работать на частотах свыше 1 ГГц.
Под нагрузкой GeForce GTX 680 может потреблять до 200 Вт. В бенчмарке 3DMark 11 Extreme видеокарта GTX 680 набирает порядка 3200-3300 баллов, тогда как GeForce GTX 580 лишь около 2200 «попугаев», а Raderon HD 7970 – 2800.
"Прошить" в одну видеокарту BIOS от другой с учетом, что производитель их графических чипов один и тот же, не так уж и сложно. Даже если программа для обновления BIOS будет «ругаться», ей все равно можно принудительно скормить практически любую прошивку. Поэтому ничего удивительного нет в возможности получения из GeForce GTX 670 Ti видеокарты GTX 680. Более того, эти решения, по заявлениям некоторых источников, построены на базе чипа GK104 и имеют одинаковое количество ядер CUDA.
Китайский сетевой ресурс MyDrivers.com поведал об одной успешной попытке превращения GTX 670 Ti в GTX 680. Для этого понадобилось лишь "прошить" BIOS от старшей карты в младшую. При этом производительность выросла на добрые 40%. Обращая внимание на столь гигантский прирост, коллеги предположили, что у GTX 670 Ti рабочая частота ядра составляет где-то 7хх МГц, а у GTX 680 – более 1 ГГц. Справедливо допустить, что и память работает на более высокой частоте. Однако существует мнение, что графический адаптер GTX 680 получил GPU GK104, производимый с соблюдением 28-нм высокопроизводительного HP-техпроцесса HKMG. Именно по этой причине у него ядро может работать на частотах свыше 1 ГГц.
Под нагрузкой GeForce GTX 680 может потреблять до 200 Вт. В бенчмарке 3DMark 11 Extreme видеокарта GTX 680 набирает порядка 3200-3300 баллов, тогда как GeForce GTX 580 лишь около 2200 «попугаев», а Raderon HD 7970 – 2800.
- TheTinkino
- MadГерой

- Сообщения: 34414
- Рега: 13 май 2011, 16:59
- Лайкнул: 96 раз
- Лайкнули: 272 раза
Nvidia > AMD.
3DS > Vita.
PS3 > X360.
WiiU > All.
Я все сказал
3DS > Vita.
PS3 > X360.
WiiU > All.
Я все сказал

- TheTinkino
- MadГерой

- Сообщения: 34414
- Рега: 13 май 2011, 16:59
- Лайкнул: 96 раз
- Лайкнули: 272 раза
У меня была АТИ9600 фэмели прото что у тебя ни видяхи от АМД
Играл - анч говно, весь в лесенках и полигры на тачени Виты
В 2013 ради Зельды и игры с Вии куплюни темболее ВииУ небыло
- TheTinkino
- MadГерой

- Сообщения: 34414
- Рега: 13 май 2011, 16:59
- Лайкнул: 96 раз
- Лайкнули: 272 раза
Ага - всякое говно, как и на ПСП - нахуй мне это надо? Мне пылящейся ПСП хватает. Хотя если Сони завезет стоящих игр, куплю.на Вите будет не только анч.
Ризен 3А вдруг трешаком будет для американских дошколят.
NVIDIA обещали полное поражение всей 7000 лиенейки радеонов, но повелись только упортые фанбои. Пример: http://www.madfanboy.com/forum/novosti- ... ml#p828329
А в реальности всё иначе
NVIDIA GTX 680 будет примерно равен Radeon HD 7970 по цене и производительности
Согласно слухам, цена на новую видеокарту NVIDIA GeForce GTX 680 на базе графического чипа GK104 Kepler составит $550, то есть примерно столько же, сколько стоит AMD Radeon HD 7970. Кроме того, NVIDIA обещает, что за эту цену можно будет получить лучшую производительность на Ватт, чем обеспечивает сейчас конкурент в лице Radeon HD 7970.
Однако, согласно ряду сообщений, производительность GTX 680 в целом будет не выше, чем у HD 7970, так как в некоторых играх и бенчмарках карта от NVIDIA оказывается быстрее, чем Radeon HD 7970, а в некоторых медленнее.
Как сейчас уже известно, TDP GTX 680 составит 200 Вт и карте понадобится дополнительное питание через два 6-контактных разъема
http://radeon.ru/?select=more&f=2012_03&new=20
А в реальности всё иначе
NVIDIA GTX 680 будет примерно равен Radeon HD 7970 по цене и производительности
Согласно слухам, цена на новую видеокарту NVIDIA GeForce GTX 680 на базе графического чипа GK104 Kepler составит $550, то есть примерно столько же, сколько стоит AMD Radeon HD 7970. Кроме того, NVIDIA обещает, что за эту цену можно будет получить лучшую производительность на Ватт, чем обеспечивает сейчас конкурент в лице Radeon HD 7970.
Однако, согласно ряду сообщений, производительность GTX 680 в целом будет не выше, чем у HD 7970, так как в некоторых играх и бенчмарках карта от NVIDIA оказывается быстрее, чем Radeon HD 7970, а в некоторых медленнее.
Как сейчас уже известно, TDP GTX 680 составит 200 Вт и карте понадобится дополнительное питание через два 6-контактных разъема
http://radeon.ru/?select=more&f=2012_03&new=20
Последний раз редактировалось Dim4ik 13 мар 2012, 16:56, всего редактировалось 1 раз.
- TheTinkino
- MadГерой

- Сообщения: 34414
- Рега: 13 май 2011, 16:59
- Лайкнул: 96 раз
- Лайкнули: 272 раза
Лучше я ВииЮ куплю и еще на игры денег останется$550
И Метро в лучшей версии снова же на ВииЮ.
- TheTinkino
- MadГерой

- Сообщения: 34414
- Рега: 13 май 2011, 16:59
- Лайкнул: 96 раз
- Лайкнули: 272 раза
Dim4ik, WiiU лучше ваших пкжелезок.
Плюс новая Зельда в 1080р - все слиты:
http://www.youtube.com/watch?v=pJ6a4OeLmSM
Плюс новая Зельда в 1080р - все слиты:
http://www.youtube.com/watch?v=pJ6a4OeLmSM
Dim4ik, ващето г92 достаточно компактен, ньюсмейкер нубас
Добавлено спустя 1 час 13 минут 34 секунды:
Британский холдинг ARM, занимающийся разработкой одноимённой процессорной архитектуры, представил новое решение под названием Cortex-M0+, которое, как утверждается, стало самым энергоэффективным процессором в мире. Вычислительное устройство предназначено для микроконтроллеров, разнообразных датчиков и интеллектуальных систем управления.
Процессор Cortex-M0+ 32-разрядный, характеризуется энергопотреблением от 3 до 52 микроватт в зависимости от модификации. Потребление решения в три раза ниже типичного для 8- и 16-разрядных контроллеров, при этом Cortex-M0+ обладает более высокой производительностью.
В ARM считают, что представленная разработка откроет путь к созданию "интернета вещей" (англ. "Internet of Things") - концепции, подразумевающей оснащение разнообразных предметов домашнего пользования, бытовой техники, специализированного оборудования и многого другого специальными датчиками, подключёнными к Сети и обеспечивающими возможность удобного мониторинга и управления посредством интернета.
Cortex-M0+ базируется на архитектуре Cortex-M0, в которую были внесены некоторые ключевые изменения. Так, ускорен доступ процессора к GPIO (General Purpose Input-Output) и добавлен двухступенчатый конвейер, увеличивающий количество циклов на инструкцию (CPI). Площадь кристалла самой крупной версии Cortex-M0+ равна всего 0.13 квадратного миллиметра.
в тред приглашаестя неадекват заявляющий что процы не могут жрать меньше ватта

Добавлено спустя 1 час 13 минут 34 секунды:
Британский холдинг ARM, занимающийся разработкой одноимённой процессорной архитектуры, представил новое решение под названием Cortex-M0+, которое, как утверждается, стало самым энергоэффективным процессором в мире. Вычислительное устройство предназначено для микроконтроллеров, разнообразных датчиков и интеллектуальных систем управления.
Процессор Cortex-M0+ 32-разрядный, характеризуется энергопотреблением от 3 до 52 микроватт в зависимости от модификации. Потребление решения в три раза ниже типичного для 8- и 16-разрядных контроллеров, при этом Cortex-M0+ обладает более высокой производительностью.
В ARM считают, что представленная разработка откроет путь к созданию "интернета вещей" (англ. "Internet of Things") - концепции, подразумевающей оснащение разнообразных предметов домашнего пользования, бытовой техники, специализированного оборудования и многого другого специальными датчиками, подключёнными к Сети и обеспечивающими возможность удобного мониторинга и управления посредством интернета.
Cortex-M0+ базируется на архитектуре Cortex-M0, в которую были внесены некоторые ключевые изменения. Так, ускорен доступ процессора к GPIO (General Purpose Input-Output) и добавлен двухступенчатый конвейер, увеличивающий количество циклов на инструкцию (CPI). Площадь кристалла самой крупной версии Cortex-M0+ равна всего 0.13 квадратного миллиметра.
в тред приглашаестя неадекват заявляющий что процы не могут жрать меньше ватта
Firex писал(а):я в жопу давал
Mr Bateman писал(а):я в рот у тцк брал лишь бы не мобилизовали , и горжусь этим!










