Прошу прощения. Core 2 Duo относится самим Intel*ом кархитектуресемейству процессоров x86. Это меня и сбивает с толку. Просто AMD позиционирует свои процессоры как истинно 64 - разрядные, Intel же заявляет только о поддержке.
Может, у кого-то есть мануал, прольющий свет на мою безграмотность (на Intel не нашел). Ведь в 64 - разрядных процессорах должны присутствовать и 64 - разрядные регистры.
Однако действительно похоже на то, что 64-битная ось кроме расширения памяти ничего не дает. Нахера тогда спрашивается ее поставили? Чтоб лишние трудности создавать что ли?
Добавлено через 2 минуты
Я посмотрел описание на свой проц Т9300 Penryn и не нашел там никаких упоминаний о его 64-битности, кроме поддержки некоей системы Intel 64. Похоже это просто расширялка памяти и всё.
Последний раз редактировалось Yury Novikov; 29.11.2008 в 14:30. Причина: Добавлено сообщение
по другому проблему с обобьем памяти не решишь
Lexus, http://www.intel.com/cd/channel/rese...tech/index.htm
В таком раскладе я даже не буду заморачиваься с установкой 64-битного ХР, поставлю обычный нормальный 32-битный. Излишки памяти не стоят таких мучений, какие я из-за нее испытываю.
Добавлено через 1 минуту
Тему для себя считаю на этом исчерпанной. Спасибо всем кто помог мне наставиться на путь истинный.
Последний раз редактировалось Yury Novikov; 29.11.2008 в 14:36. Причина: Добавлено сообщение
Yury Novikov, если Вам не сложно, посмотрите и скажите, пожалуйста, как у Вас в диспетчере устройств в пункте "Компьютер" система распознает процессор. Просто у меня там "ACPI компьютер на базе x86". Но у меня и система Vista 32 Bit.
Microsoft говорит о лучшей безопасности ОС x64. Но проблем с такими системами и правда больше.
излишки памяти можно все же заюзать
http://people.overclockers.ru/zauropod/record17
Хосспади...
Пишите исчо
Code2Duo - самый что ни есть настоящий 64битный проц.
Yury Novikov - почему это памяти надо в 2 раза больше для 64бит?
Кстати, если ноут новый, есть ОЧЕНЬ большая вероятность, что драйверов под XP не будет
А чтобы виста не надоедала - отключите UAC.
А о преимуществах 64битных ОС можно в яндексе почитать, не надо считать intel amd ms и проч. за идиотов, жаждующих нагадить пользователям
Да что все обьем памяти, обьем памяти? Не обьемами едиными
В кратце и упрощенно, 64 битный проц за 1 такт считает два 32битных числа, а 32битный проц - одно
Да, тесты и писал и смотрел
плохо смотрели писали
специализированный ресусоемкий софт (кад\сапр\рендер) повторюсь кроме поддержки памяти ничгео не получает от 64битности
говорю как человек который использует и 32битные и 64битные версии рендер систем более чем 4х производителей
в професиональной деятельности
заточки которые сделаны что бы показать превосходство 64битности так и остануться заточками
для текущего уровня расчета 32битного числа более чем с головой
не показывайте свою неосведомленность так явно
во первых рендер на гпу в профессиональный схеме ето бред
во вторых оптимизация максимальна а многопоточность до 256 потоков реализована более 6ти лет назад
поддерживается рендер по сети с централизованной станицей
и в частности даже синхронизацию с разной архитектурой
Добавлено через 2 минуты
назовите хоть одну ресурсоемкую задачу которая получила многократный прирост от 64битности
только реальную задачу а не емперические расчеты
Последний раз редактировалось cka3o4nuk; 29.11.2008 в 16:17. Причина: Добавлено сообщение
Последний раз редактировалось cka3o4nuk; 29.11.2008 в 16:20. Причина: Добавлено сообщение
Многократный прирост будет только между P2 и C2D
Ну на картинках 1024x768, с одним слоем, без управления цветом, наверное да, разница будет укладываться в погрешность измерений)
При этом тот же фотошоп далеко не лучшим образом оптимизирован, и на самом то деле, откровенно тормозной.
И вообще, предлагаю выразить интелу свое фи, и вернуться на 16бит
Кстати. Насчет GPU
1. Я предположил, и не утверждал, так что не стоит так цепляться
2. То, что не считают на GPU - ну, на абаке тоже можно считать. Проблема ВСЕГО громоздкого ПО и компаний - неповоротливость, но это не значит, что просчет на GPU - это глупость. Хочу услышать аргументированные причины убогости GPU
Напомню, что GPU это не только игровые карточки
Социальные закладки