TRIM Command – команда контроллеру со стороны операционной системы, указывающая, какие ячейки памяти содержат удаленные на уровне файловой системы пользовательские данные. Эффект все тот же, но реализованый через ОС. TRIM не всегда поддерживается в RAID-массивах. Чтобы проверить состояние TRIM необходимо выполнить следующее: В командой строке ввести: fsutil behavior query DisableDeleteNotify, если выдаёт DisableDeleteNotify=0, поддержка TRIM включена; если DisableDeleteNotify = 1, поддержка TRIM отключена. Чтобы включить TRIM (если он выключен), в командной строке введите: fsutil behavior set disabledeletenotify 0; чтобы выключить TRIM: fsutil behavior set disabledeletenotify 1 Список ОС, поддерживающих TRIM: Windows 7 - Поддерживается с финального релиза (октябрь 2009) Windows Server 2008 R2 - Поддерживается с финального релиза (октябрь 2009) Linux 2.6.33 - Поддерживается с февраля 2010 OpenSolaris - Поддерживается с июля 2010 FreeBSD 8.1 - С июля 2010 поддерживается только для низкоуровневого форматирования, полная поддержка предлагается в версии 9.0 (возможно, сентябрь 2011) Mac OS X - Поддерживается (на данный момент — только для SSD, входящих в комплект поставки компьютера) с версии 10.6.6 с соответствующим обновлением. Для Windows XP можно воспользоваться специальными утилитами, например O&O Defrag 14.0 & TRIM.
Вопрос: Зачем трим на ssd"xxx", я уже три месяце без трима (Win XP) и никаких изменений в работе диска? Ответ: Наличие trima скажется когда вы заполните диск > 75% от объема. Плюс эти данные должны мелкие файлы 4-16кб и самое главное большая часть 2/3 этих данных должна перезаписываться т.е. быть динамическими т.е. весь диск должен быть одной большой базой данных постоянно меняющиеся.
"Современные SSD накрываются тазом резко и целиком. Вот буквально только вчера еще ничто не предвещало — а сегодня уже пердык, пердык — и к вечеру 90% содержимого уже пропало, никаким рекавером не вытянуть.
Потому что технологии сменились. Сейчас массовый чип SSD памяти — это 64 layer TLC (восемь уровней напряжения в ячейке, то есть три бита). А начиналось все с 16 layer SLC, и размер ячейки был не 15-16 нм, а сильно больше.
Так вот: удвоение количества слоев где-то в 4 раза уменьшает время жизни микросхемы SSD. Удвоение количества уровней в ячейке тоже где-то в 4 раза уменьшает время жизни ячейки. Ну и уменьшение размера ячейки снижает ее надежность где-то кратно площади.
Короче говоря — прогресс снизил надежность ячеек в микросхеме SSD драматически, на порядок и более. Фактически, они сыплятся с первого же дня. А чтобы вы этого не замечали — используется запись с избыточными корректирующими кодами, и специальный алгоритм, оперативно переписывающий информацию из начавших посбаивать ячеек в еще хорошие. А те, что начали сбоить — маркируются как плохие и в них ничего больше не пишется, или пишется в самую последнюю очередь, когда уже пул хороших ячеек кончился. Поэтому современные SSD во время эксплуатации скукоживаются в своей реальной емкости, как шагренева кожа, и считается правильным не заполнять их более, чем на 50%.
Кроме того, ячейки SSD долговечны на считывание, но имеют очень ограниченный срок жизни на циклах записи. Поэтому в современных SSD специальный алгоритм пишет всё время в новые ячейки. Вам на уровне интерфейса кажется, что вы двадцать раз переписывали кластер 1836517 — а на самом деле запись каждый раз происходила в другое место SSD, и читалось потом уже из этого нового места. В результате если старые SSD без этого алгоритма начинали сыпаться в отдельных местах, часто переписываемых, и это можно было отследить и успеть среагировать — то теперь ячейки деградируют более-менее равномерно по всем микросхемам SSD, сбои прячутся — пока хватает «свободных» ячеек, и когда свободных ячеек перестает хватать — SSD обрушивается очень быстро.
Вы судите о надежности SSD и характере их деградации по старым накопителям — тем самым, у которых были надежные ячейки и простые алгоритмы. А теперь всё не так.
Поэтому теперь считается, что на SSD надо выносить загрузочный образ системы — в который вообще ничего не пишется при работе, который постоянен по содержимому, и копию которого можно регулярно сохранять в надежном хранилище. Все временные файлы и свопы надо выносить на HDD или RAM-диски. А ценные данные хранить на отказоустойчивом дисковом массиве — хотя бы в зеркале. И тогда SSD будет жить какое-то время, а когда накроется — вы просто нальёте бэкап системы на новый, и ура.
Иначе же жизнь для вас через некоторое время станет болью. Proper"
Из установленных за последние два года порядка 300 ssd "народных" брендов и емкостей (120-240Гб) накрылся всего один ssd, ито почти сразу же. Что говорит о заводском/производственном браке. Ваш текст - копипаст пессимиста гдето 3х летней давности, когда ssd пошли в массы. А так ssd используется в качестве системного диска, не для хранения данных. А важные данные нужно "держать" на двух и более разных носителях.
Цитата
Все временные файлы и свопы надо выносить на HDD..
Ничего никуда не надо выносить, иначе плюсы ssd сразу теряются.
Современные SSD накрываются тазом резко и целиком. Вот буквально только вчера еще ничто не предвещало — а сегодня уже пердык, пердык — и к вечеру 90% содержимого уже пропало, никаким рекавером не вытянуть.
То ли дело перфокарты. Сотни лет могут в архиве храниться.
Выше действительно копи-паст прежних лет.Новые TLC служат не сказать чтоб много,но на 4-5 лет хватает.Для меня кроме плюсов SSD -есть только один минус.Архивы на них на долгие годы хранить не получиться,если только не в рейдах на 6-8 SSD -поэтому одинарные SSD только под ось,а не для архивных хранений.Если смотреть стандарт JEDEC-на новом SSD информация без включения носителя должна храниться 52 недели.В реале я замечал на разных брендах,если машинка была выключена на 3 месяца-то в smart info на некоторых носителях SSD начинается замена блоков из резерва.Поэтому для себя сделал вывод-лэп или дэсктопные рабочие станции на SSD надо включать хотя один раз в 3 месяца,а иначе коррекция ошибок в алгоритме контроллера может "скушать"-заменив сектор на якобы более рабочий из резерва.Сталкивался с этим пока 3 раза,но для себя сделал выводы из этой ситуации.Это стандартные носители для SATA-3 и NVMe PCI-E nand памяти на 2 и 3 битовой памяти.4 битовые пока не тестил.Про 1 битки вообще молчу-дорогущие,но самые надёжные из всех.А вот "оптические ребята" SSD -этим не страдают похоже.Поэтому есть большое желание собрать машинку на основе серверного INTEL 905 с U.2(2,5") на NVME PCI-E,но там свой разъёмчик-серверный SATA-SAS.На consumer матери такие не поставишь даже с переходником-адаптером.Контроллер на матери не даст.
Архивы бывают разные и пользователи работающие за рабочими станциями тоже со своими требованиями.Был например у меня клиент-работал в дизайне и монтаже.Объёмы данных,которые надо было перегонять большие.Но задача была сделать "машинку " не только быстрой,но и с системой повышенной отказоустойчивости.Для монтажа фото и видео данных и перегона с большими скоростями на монтажном софте было принято решение сделать всё на 3 самцах 970 NVMe на 2ТБ+1Тб.Одна идёт под ось-остальные два 970 на RAID1.Чел сам фотограф-ездит в экспедиции и работает с машиной не часто-сроки могут быть больше 2 месяцев в перерывах,но быстро.Причём,то как он работал раньше на обычных SSD с архивами-сейчас скорости коренным образом отличаются.Так,что не судите по себе-архивы делаются и на SSD.И могут храниться без включения рабочих станций продолжительные сроки,но я стараюсь предупредить-чтоб машинку включали хотя бы раз в 2,5-3 месяца.Шаблонное мышление надо менять вам-тут вопрос цены только стоит,но человеку нужна была скорость работы с большим массивом данных.В итоге мать позволяет и 4 носитель на NVMe PCI-E подключить для оси на 4 линии в RAID 0-чтоб ещё увеличить скорость работы на 6,5-7ГБ/с на 2066 сокете.Пока хватает,но запас присутствует-всегда можно нарастить и скорость и объём.Так,как архивы отснятого у человека растут с поездок.Понятно,что дорого выходит,но тут вопрос не цены-а скорости работы и именно скорости работы рендеринга с большим объёмом данных.А это накладывает в каждом конкретном случае свои нюансы при составлении конфигурации станции.Следующие более скоростные машинки я уже собираю по совсем другим ценам и ось уже ставится на RAM и работает на скоростях от 18ГБ/с.Но такие вещи собираю не часто-потому,что клиентов во первых немного на такие задачи-запросы и цена таких конфигов выходит от 850р и выше до 1500р(1500000 рублей) для односокетных решений.Итак,как начали появляться модели носителей на 8 линиях уже на 3 и 4 версиях PCI-E-то варианты конфигов могут удешевится для больших скоростей работы.Написал,чтоб люди понимали-что рабочие станции собираются разные и под разные задачи и цены начинаются в любом случае от 700р для высшего класса например игровых станций.Про топ сегмент не пишу-потому,что у нас в Чувашии вообще мало кто имеет возможность вложить деньги в 1000-1200р в машинку.Это в основном делают проф геймеры-уже давно работающие и играющие в этом бизнесе.Это отдельная тема- четвёртый топовый сегмент.Обычно собирают машинки от 50р. и называют эти рабочие станции ошибочно игровыми-что в корне неверно.Поэтому архивы делают в здравом уме и на обычных SSD и высокоскоростных SSD-всё зависит от денег клиента и его задач.Тут больше вопрос будет стоять в профессиональном уровне самого специалиста собирающего и понимающего все нюансы правильных конфигов для конкретного клиента и его запросов.Баланс всегда должен соблюдаться везде.