Что надёжнее, SSD или HDD

В рамках материала «Разные SSD: а есть ли разница? », в котором было протестировано несколько моделей SSD и HDD различного класса, мы на примере реальных пользовательских операций продемонстрировали отличия между этими устройствами. С момента публикации прошло почти полтора года – срок по меркам компьютерной индустрии немалый.

Что изменилось за это время? Да практически все. Цены – ушли вниз. Ассортимент – перетрясен производителями почти полностью, по причине снижения цен и необходимости адекватного (новой ценовой политике) сокращения себестоимости. Под понятием «бюджетный класс» теперь подразумевается конфигурации на TLC NAND, а найти в начальных строчках прайс-листов магазинов что-то на основе памяти MLC NAND является самой настоящей проблемой. Класс решений флагманского уровня, тот, которым мы его видели еще года полтора назад – на грани вымирания. Теперь под «флагманским» понимается решение не форм-фактора 2.5" с интерфейсом SATA 6 Гбит/с, а форм-фактора M.2 с интерфейсом PCI-Express 3.0 x4.

Хорошим примером этого может служить череда действий Toshiba OCZ в последние месяцы: OCZ Vector 180 (2.5" SATA) снят с производства, флагманом теперь выступает Toshiba OCZ RD400 (PCI-E 3.0 x4), OCZ Vertex 460A на 19 нм памяти заменен на Vertex 500 (Toshiba OCZ VT500) на более дешевой 15 нм памяти, а под нижним ценовым сегментом теперь понимается не относительно новый Trion 150 (у которого оставлены объемы 480 Гбайт и более), а недавно анонсированный TL100 , в основе которого лежит еще более упрощенная платформа, нежели Phison S10.

Иначе говоря, если раньше производители лавировали в относительно узких рамках одного типа памяти MLC NAND и одного форм-фактора, то в 2016 году простор для их маневров стал больше, а «шаг в массы» интерфейсов PCI-Express 3.0 и NVMe дополнительно расширил ассортимент решений.

Но есть ли разница между ними на практике? Как показывает практический опыт пользователей, ситуация с работой и полноценной загрузкой нынешних мощностей и сегодня довольно унылая. Благодаря нашим постоянным партнерам – магазину Регард и компаниям-производителям, мы вновь проясним ситуацию, сравнив разные модели накопителей между собой.


Обзор и тестирование SSD-накопителя SmartBuy Splash 120 Гбайт (SB120GB-SPLH-25SAT3)

Торговая марка SmartBuy продолжает удивлять. Совсем недавно мы протестировали SmartBuy S11-2280T, аналогов которого вообще нет (это единственное решение на контроллере Phison PS3111-S11), а теперь в ее ассортименте появился еще один оригинальный накопитель, получивший название SmartBuy Splash. И в его основе также лежит экзотичный контроллер – на сей раз Marvell 88NV1120, который среди представленных в отечественной рознице моделей более не встречается.

Немного суровой реальности, пинающей маркетинг, или матчасть тоже надо знать

Гонка за экстремальной скоростью

«Ребята, без обид, но я понимаю, почему Россия в тупике – из-за таких экспертов, как вы».
Реакция пользователя на совет участников форума не пытаться
собирать RAID-массив из двух Samsung SM951 на LGA 1151.

Данную цитату я привел из своего личного опыта общения. Увы, именно так: люди додумываются ваять чудесные конструкции, совершенно не утруждаясь разбором технической сути. Затем различными «шаманскими плясками» пытаются заставить работать этого «Франкенштейна», споря с окружающими и не веря их словам о том, что подобный замысел даже технически (не говоря уже о финансовой стороне вопроса) является глупостью. И заставив-таки эту конструкцию подавать признаки жизни, пользователи с удивлением узнают, что результат не соответствует их ожиданиям и… снова начинают поиск виноватых.

Конкретно тот пользователь пытался собрать RAID-массив «нулевого» уровня из двух твердотельных накопителей с интерфейсом PCI-E 3.0 x4 на материнской плате, основанной на наборе системной логики Intel Z170. Суть в том, что оба SSD он хотел установить в разъемы, подключенные именно к Intel Z170. Изучение блок-диаграммы этого чипсета покажет несбыточность мечты о возможности получения скоростей чтения в районе 4.2 Гбайт/с (суммирование возможностей двух SM951 на линейных операциях).

Дело в том, что сам набор системной логики сообщается с процессором посредством третьей версии шины Direct Media Interface (DMI), которая технически является модифицированным объединением четырех линий PCI-Express 3.0 с соответствующей пропускной способностью около 3.93 Гбайт в секунду. Мало того, часть этой пропускной способности задействуется для потребностей периферии – сетевого контроллера, SATA- и USB-портов и прочего.

Единственный выход в случае LGA 1151 – установка микросхемы-коммутатора типа PLX, которая подключается к CPU и задействует линии от него, но такие платы из-за себестоимости подобного инженерного решения очень дороги. По величинам цифр на ценниках они фактически уже начинают пересекаться с платформой LGA 2011-v3, где подобной проблемы нет просто в силу того, что на ней от процессора отходит больше линий PCI-Express (от 28 до 40, в зависимости от модели ЦП, против 16 у LGA 1151).

Так для чего же производители устанавливают по два (а то и больше) разъема M.2 на системных платах с процессорным разъемом LGA 1151? Ответ прост: подобное отлично подходит для раздельной эксплуатации накопителей, когда обращение идет только к одному SSD, а не всем одновременно; для установки иных плат расширения (уже можно приобрести, например, Wi-Fi-адаптеры). Никто не отменял и факта существования таких SSD, как, например, недавно представленный Intel SSD 600p, модификация которого объемом 128 Гбайт обеспечивает лишь до 770 Мбайт/с на чтении и 450 Мбайт/с – на записи. Что, между прочим, сопоставимо с двухлетней давности Plextor M6e с двумя линиями интерфейса PCI-E (причем еще версии 2.0).

Причем помимо собственно нагрузки существует и так называемый «служебный трафик», который есть всегда, в результате чего реальная пропускная способность оказывается ниже. И, как показывает практика, в реальности на LGA 1151 удается получить не больше 3.4-3.5 Гбайт в секунду, да и те практически в «лабораторных условиях» – при минимизации нагрузки на все остальные элементы системы и аккуратном подборе конфигурации тестовой системы. Наиболее реальными же оказываются и вовсе 3.1-3.2 Гбайт.

Но один вариант для систем LGA 1151 все-таки есть: устанавливать PCI-E SSD так, чтобы они были подключены раздельно к процессору и к набору системной логики. В этом случае будет доступен лишь вариант программной сборки средствами самой операционной системы, но это на самом деле непринципиально по одной простой причине: на материнских платах потребительского класса в принципе нет RAID-контроллеров.

Да, именно так: все операции на «бытовых» системных платах выполняются драйвером на программном уровне с использованием ресурсов центрального процессора. Подобный тип программных массивов даже носит неофициальное название «FakeRAID». Настоящий же RAID-контроллер включает собственный микропроцессор (зачастую с немалым тепловыделением), кэш-память, цепь питания для защиты данных в случае незапланированного отключения питания и еще ряд элементов обвязки.

Суммарная стоимость такого устройства выше, чем у большинства материнских плат, не говоря уже про сам набор системной логики, а потому модели вроде ASRock Z87 Extreme11/ac , где применены LSI SAS 3008 и LSI SAS 3x24R вкупе с флеш-памятью, являются своего рода эксклюзивом.

В погоне за копейкой

Вторая половина 2015 – начало 2016 года ознаменовались тем, что память TLC NAND стала в твердотельных накопителях поистине массовым явлением. Компания Samsung лишилась своей «монополии», причем практически сразу выделилось два дуэта, противостоящих друг другу: память Toshiba с контроллерами Phison и память SK Hynix с контроллерами Silicon Motion.

На первый дуэт ставку сделали более именитые бренды вроде Kingston, Toshiba OCZ, Corsair и ряда других. Второй в решениях более-менее популярных брендов оказался только в ассортименте ADATA, все остальное – множество китайских и малоизвестных у нас (да и не только у нас) компаний.

Недавно состоялся выход на сцену флеш-памяти с вертикальной компоновкой, разработанной концерном Micron и Intel (IMFT), фактически более-менее полноценно присутствует на рынке только один накопитель на ней – Crucial MX300, но, судя по всему, сложившаяся расстановка в целом не поменяется и тут – Toshiba и Western Digital (SanDisk) готовят свою 3D V-NAND.

Несмотря на явное противостояние, эти платформы очень близки как по маркетинговой составляющей, так и по аппаратной идеологии. Накопители на их основе позиционируются на данный момент как решения начального и среднего уровня, а суть работы их фактически идентична.

При том, что TLC NAND обладает меньшей себестоимостью в производстве, она также обладает и своими недостатками. В частности это достаточно медленная память, и на операциях записи уровень ее быстродействия не выдерживает никакой критики. Чтобы такие накопители все же могли предложить достойные показатели, применяется ухищрение: часть массива памяти работает в «ускоренном» режиме записи (иногда его называют «псевдоSLC»).

В итоге современные модели на TLC NAND, за редким исключением, даже будучи небольшого объема (~120-128 Гбайт) несут в своих официальных спецификациях указание скоростей записи примерно 400-550 Мбайт/с – именно благодаря SLC-режиму.

Но объем данных, который накопитель способен записать на такой высокой скорости, обычно невелик и в зависимости от объема SSD может начинаться с приблизительно 2 Гбайт у самых младших модификаций.

Другое дело, что подобное поведение отнюдь не всегда бросается в глаза просто из-за того, что копирование действительно больших объемов данных – ситуация, возникающая не так часто. Не совсем приятно наблюдать скорость копирования чуть ли не на уровне совсем уже старых моделей HDD.

Первая «ступенька» – кэширование Windows. Вторая – SLC-кэш. Нижняя «полка» – реальная скорость работы Zenith R3 120 Гбайт за пределами SLC-кэша.

На самом деле вполне реален еще один сценарий, при котором могут себя проявлять нехватка SLC-буфера и низкая скорость записи вне него: установка игр с большим объемом занимаемого места.

Вообще, твердотельные накопители на TLC NAND наиболее оптимально смотрятся именно в больших объемах: и ресурс чисто за счет объема становится избыточным, и размер SLC-буфера (который обычно задается в процентах от объема SSD) достаточно велик. Да и сам массив памяти набирается таким количеством кристаллов NAND, что скорость записи и вне SLC-буфера вырастает до достойных значений. К примеру, емкость кристаллов планарной TLC NAND производства Toshiba, SK Hynix и Micron сейчас составляет 128 Гбит, несложно подсчитать, что для построения массива 128 Гбайт нужно 8 кристаллов, а массив 512 Гбайт набирается уже 32-мя кристаллами.

Кстати о ресурсе. Это еще один краеугольный камень знания матчасти. На самом деле, вопреки распространенному мнению, ресурс выражается не только численным показателем (сколько именно данных может быть записано на накопитель до первых сбоев), но еще и сохранностью этих данных. Как сохраняются данные во флеш-памяти? Хранятся они в ячейках в виде заряда, и существует такой физический процесс, как «перетекание заряда» в соседние ячейки. В конце концов ячейка памяти просто перестает корректно считываться. И чем сильнее изношены ячейки памяти, тем активнее и быстрее протекает этот процесс. Только что записанные данные могут отлично читаться, а вот через некоторое время уже начинаются проблемы.

Для решения этой задачи инженерами активно разрабатываются новые алгоритмы коррекции ошибок, но это лишь отодвигает планку, когда считанное из ячейки памяти становится недешифруемым, иначе говоря, «мусором». В какой-то момент микропрограмма контроллера может принять решение о перезаписи трудночитаемых данных для «освежения» заряда, но «благодаря» алгоритмам «выравнивания износа» с большой долей вероятности новые ячейки, куда данные будут перенесены, окажутся ничуть не лучше. И в какой-то момент по мере износа процесс потери ячейками заряда станет просто лавинообразным.

Ключевое здесь: время. Именно в этом кроется ошибочность подавляющего большинства тестов на износ, которые проводятся различными изданиями и отдельными энтузиастами: только что записанные данные могут читаться отлично, но через некоторое время (неделю, две, три) может оказаться иное, особенно если массив памяти уже изношен. И в этом основная сложность: полноценный правильный тест будет длиться слишком долго. Не говоря уже про классику статистики, понятие «репрезентативность выборки»: как правило, тестируется один-два образца, а не разные из нескольких партий. Иначе говоря, можно наткнуться как на экземпляры с флеш-памятью из неудачной партии, так и на накопители, в которые попала отменно удачная партия флеш-памяти. Ещё раз подчеркнём, что под понятием «время» имеется в виду действительно заметный срок, а не несколько дней (как поднимали панику некоторые интернет-ресурсы). Вопрос сроков рассмотрен в этом материале .

Да и сам тип памяти – это еще не приговор. На самом деле немалое влияние на ресурс накопителя оказывают специфические особенности отдельных контроллеров и платформ в целом. Наиболее известный пример из последних – контроллер Silicon Motion SM2246XT. У него есть такое свойство: он хорошо ведет себя только в том случае, если на накопителе есть хотя бы 10% свободного места, иначе резко увеличивается WA (Write amplification, причем у отдельных образцов мне доводилось наблюдать WA ~1300-1500) и накопитель в прямом смысле умирает через несколько месяцев эксплуатации. И от того, что в паре с этим контроллером используется MLC NAND (TLC не поддерживается SM2246XT), легче не становится. Зато нелюбимые многими контроллеры SandForce, благодаря реализованной в них компрессии данных, в некоторых условиях (например, при офисной работе) могут обеспечить себе двукратное превосходство в ресурсе по сравнению с другими контроллерами с той же флеш-памятью.

Именно поэтому тесты на износ в том виде, в каком их сейчас проводят, являются не абсолютной истиной, а лишь косвенным показателем возможностей накопителей и не более. Хотя за неимением лучшего приходиться довольствоваться и этим.

Бытует мнение, что одним из самых существенных недостатков твердотельных накопителей выступает их конечная и притом относительно невысокая надёжность. И действительно, в силу ограниченности ресурса флеш-памяти, которая обуславливается постепенной деградацией её полупроводниковой структуры, любой SSD рано или поздно теряет свою способность к хранению информации. Вопрос о том, когда это может произойти, для многих пользователей остаётся ключевым, поэтому многие покупатели при выборе накопителей руководствуются не столько их быстродействием, сколько показателями надёжности. Масла в огонь сомнений подливают и сами производители, которые из маркетинговых соображений в условиях гарантии на свои потребительские продукты оговаривают сравнительно невысокие объёмы разрешённой записи.

Тем не менее, на практике массовые твердотельные накопители демонстрируют более чем достаточную надёжность для того, чтобы им можно было доверять хранение пользовательских данных. Эксперимент, показавший отсутствие реальных причин для переживаний за конечность их ресурса, некоторое время тому назад проводил сайт TechReport . Им был выполнен тест, показавший, что, несмотря на все сомнения, выносливость SSD уже выросла настолько, что о ней можно вообще не задумываться. В рамках эксперимента было практически подтверждено, что большинство моделей потребительских накопителей до своего отказа способны перенести запись порядка 1 Пбайт информации, а особенно удачные модели, вроде Samsung 840 Pro, остаются в живых, переварив и 2 Пбайт данных. Такие объёмы записи практически недостижимы в условиях обычного персонального компьютера, поэтому срок жизни твердотельного накопителя попросту не может подойти к концу до того, как он полностью морально устареет и будет заменён новой моделью.

Однако убедить скептиков данное тестирование не смогло. Дело в том, что проводилось оно в 2013-2014 годах, когда в ходу были твердотельные накопители, построенные на базе планарной MLC NAND, которая изготавливается с применением 25-нм техпроцесса. Такая память до своей деградации способна переносить порядка 3000-5000 циклов программирования-стирания, а сейчас в ходу уже совсем другие технологии. Сегодня в массовые модели SSD пришла флеш-память с трёхбитовой ячейкой, а современные планарные техпроцессы используют разрешение 15-16 нм. Параллельно распространение приобретает флеш-память с принципиально новой трёхмерной структурой. Любой из этих факторов способен в корне изменить ситуацию с надёжностью, и в сумме современная флеш-память обещает лишь ресурс в 500-1500 циклов перезаписи. Неужели вместе с памятью ухудшаются и накопители и за их надёжность нужно снова начинать переживать?

Скорее всего - нет. Дело в том, что наряду с изменением полупроводниковых технологий происходит непрерывное совершенствование контроллеров, управляющих флеш-памятью. В них внедряются более совершенные алгоритмы, которые должны компенсировать происходящие в NAND изменения. И, как обещают производители, актуальные модели SSD как минимум не менее надёжны, чем их предшественники. Но объективная почва для сомнений всё-таки остаётся. Действительно, на психологическом уровне накопители на базе старой 25-нм MLC NAND с 3000 циклов перезаписи выглядят куда основательнее современных моделей SSD с 15/16-нм TLC NAND, которая при прочих равных может гарантировать лишь 500 циклов перезаписи. Не слишком обнадёживает и набирающая популярность TLC 3D NAND, которая хоть и производится по более крупным технологическим нормам, но при этом подвержена более сильному взаимному влиянию ячеек.

Учитывая всё это, мы решили провести собственный эксперимент, который позволил бы определить, какую выносливость могут гарантировать актуальные сегодня модели накопителей, основанные на наиболее ходовых в настоящее время типах флеш-памяти.

Контроллеры решают

Конечность жизни накопителей, построенных на флеш-памяти, уже давно ни у кого не вызывает удивления. Все давно привыкли к тому, что одной из характеристик NAND-памяти выступает гарантированное количество циклов перезаписи, после превышения которого ячейки могут начинать искажать информацию или просто отказывать. Объясняется это самим принципом работы такой памяти, который основывается на захвате электронов и хранении заряда внутри плавающего затвора. Изменение состояний ячеек происходит за счёт приложения к плавающему затвору сравнительно высоких напряжений, благодаря чему электроны преодолевают тонкий слой диэлектрика в одну или другую сторону и задерживаются в ячейке.

Полупроводниковая структура ячейки NAND

Однако такое перемещение электронов сродни пробою - оно постепенно изнашивает изолирующий материал, и в конечном итоге это приводит к нарушению всей полупроводниковой структуры. К тому же существует и вторая проблема, влекущая за собой постепенное ухудшение характеристик ячеек, - при возникновении туннелирования электроны могут застревать в слое диэлектрика, препятствуя правильному распознаванию заряда, хранящегося в плавающем затворе. Всё это значит, что момент, когда ячейки флеш-памяти перестают нормально работать, неизбежен. Новые же технологические процессы лишь усугубляют проблему: слой диэлектрика с уменьшением производственных норм становится только тоньше, что снижает его устойчивость к негативным влияниям.

Однако говорить о том, что между ресурсом ячеек флеш-памяти и продолжительностью жизни современных SSD существует прямая зависимость, было бы не совсем верно. Работа твердотельного накопителя - это не прямолинейная запись и чтение в ячейках флеш-памяти. Дело в том, что NAND-память имеет достаточно сложную организацию и для взаимодействия с ней требуются специальные подходы. Ячейки объединены в страницы, а страницы - в блоки. Запись данных возможна лишь в чистые страницы, но для того, чтобы очистить страницу, необходимо сбросить весь блок целиком. Это значит, что запись, а ещё хуже - изменение данных, превращается в непростой многоступенчатый процесс, включающий чтение страницы, её изменение и повторную перезапись в свободное место, которое должно быть предварительно расчищено. Причём подготовка свободного места - это отдельная головная боль, требующая «сборки мусора» - формирования и очистки блоков из уже побывавших в использовании, но ставших неактуальными страниц.

Схема работы флеш-памяти твердотельного накопителя

В результате реальные объёмы записи в флеш-память могут существенно отличаться от того объёма операций, который инициируется пользователем. Например, изменение даже одного байта может повлечь за собой не только запись целой страницы, но и даже необходимость перезаписи сразу нескольких страниц для предварительного высвобождения чистого блока.

Соотношение между объёмом записи, совершаемой пользователем, и фактической нагрузкой на флеш-память называется коэффициентом усиления записи. Этот коэффициент почти всегда выше единицы, причём в некоторых случаях - намного. Однако современные контроллеры за счёт буферизации операций и других интеллектуальных подходов научились эффективно снижать усиление записи. Распространение получили такие полезные для продления жизни ячеек технологии, как SLC-кеширование и выравнивание износа. С одной стороны, они переводят небольшую часть памяти в щадящий SLC-режим и используют её для консолидации мелких разрозненных операций. С другой - делают нагрузку на массив памяти более равномерной, предотвращая излишние многократные перезаписи одной и той же области. В результате сохранение на два разных накопителя одного и того же количества пользовательских данных с точки зрения массива флеш-памяти может вызывать совершенно различную нагрузку - всё зависит от алгоритмов, применяемых контроллером и микропрограммой в каждом конкретном случае.

Есть и ещё одна сторона: технологии сборки мусора и TRIM, которые в целях повышения производительности предварительно готовят чистые блоки страниц флеш-памяти и потому могут переносить данные с места на место без какого-либо участия пользователя, вносят в износ массива NAND дополнительный и немалый вклад. Но конкретная реализация этих технологий также во многом зависит от контроллера, поэтому различия в том, как SSD распоряжаются ресурсом собственной флеш-памяти, могут быть значительными и здесь.

В итоге всё это означает, что практическая надёжность двух разных накопителей с одинаковой флеш-памятью может очень заметно различаться лишь за счет различных внутренних алгоритмов и оптимизаций. Поэтому, говоря о ресурсе современного SSD, нужно понимать, что этот параметр определяется не только и не столько выносливостью ячеек памяти, сколько тем, насколько бережно с ними обращается контроллер.

Алгоритмы работы контроллеров SSD постоянно совершенствуются. Разработчики не только стараются оптимизировать объём операций записи в флеш-память, но и занимаются внедрением более эффективных методов цифровой обработки сигналов и коррекции ошибок чтения. К тому же некоторые из них прибегают к выделению на SSD обширной резервной области, за счёт чего нагрузка на ячейки NAND дополнительно снижается. Всё это тоже сказывается на ресурсе. Таким образом, в руках у производителей SSD оказывается масса рычагов для влияния на то, какую итоговую выносливость будет демонстрировать их продукт, и ресурс флеш-памяти - лишь один из параметров в этом уравнении. Именно поэтому проведение тестов выносливости современных SSD и вызывает такой интерес: несмотря на повсеместное внедрение NAND-памяти с относительно невысокой выносливостью, актуальные модели совершенно необязательно должны иметь меньшую надёжность по сравнению со своими предшественниками. Прогресс в контроллерах и используемых ими методах работы вполне способен компенсировать хлипкость современной флеш-памяти. И именно этим исследование актуальных потребительских SSD и интересно. По сравнению с SSD прошлых поколений неизменным остаётся лишь только одно: ресурс твердотельных накопителей в любом случае конечен. Но как он поменялся за последние годы - как раз и должно показать наше тестирование.

Методика тестирования

Суть тестирования выносливости SSD очень проста: нужно непрерывно перезаписывать данные в накопителях, пытаясь на практике установить предел их выносливости. Однако простая линейная запись не совсем отвечает целям тестирования. В предыдущем разделе мы говорили о том, что современные накопители имеют целый букет технологий, направленных на снижение коэффициента усиления записи, а кроме того, они по-разному выполняют процедуры сборки мусора и выравнивания износа, а также по-разному реагируют на команду операционной системы TRIM. Именно поэтому наиболее правильным подходом является взаимодействие с SSD через файловую систему с примерным повторением профиля реальных операций. Только в этом случае мы сможем получить результат, который обычные пользователи могут рассматривать в качестве ориентира.

Поэтому в нашем тесте выносливости мы используем отформатированные с файловой системой NTFS накопители, на которых непрерывно и попеременно создаются файлы двух типов: мелкие - со случайным размером от 1 до 128 Кбайт и крупные - со случайным размером от 128 Кбайт до 10 Мбайт. В процессе теста эти файлы со случайным заполнением множатся, пока на накопителе остаётся более 12 Гбайт свободного места, по достижении же этого порога все созданные файлы удаляются, делается небольшая пауза и процесс повторяется вновь. Помимо этого, на испытуемых накопителях одновременно присутствует и третий тип файлов - постоянный. Такие файлы общим объёмом 16 Гбайт в процессе стирания-перезаписи не участвуют, но используются для проверки правильной работоспособности накопителей и стабильной читаемости хранимой информации: каждый цикл заполнения SSD мы проверяем контрольную сумму этих файлов и сверяем её с эталонным, заранее рассчитанным значением.

Описанный тестовый сценарий воспроизводится специальной программой Anvil’s Storage Utilities версии 1.1.0, мониторинг состояния накопителей проводится при помощи утилиты CrystalDiskInfo версии 7.0.2. Тестовая система представляет собой компьютер с материнской платой ASUS B150M Pro Gaming, процессором Core i5-6600 со встроенным графическим ядром Intel HD Graphics 530 и 8 Гбайт DDR4-2133 SDRAM. Приводы с SATA-интерфейсом подключаются к контроллеру SATA 6 Гбит/с, встроенному в чипсет материнской платы, и работают в режиме AHCI. Используется драйвер Intel Rapid Storage Technology (RST) 14.8.0.1042.

Список моделей SSD, принимающих участие в нашем эксперименте, к настоящему моменту включает уже более пяти десятков наименований:

  1. (AGAMMIXS11-240GT-C, прошивка SVN139B);
  2. ADATA XPG SX950 (ASX950SS-240GM-C, прошивка Q0125A);
  3. ADATA Ultimate SU700 256 Гбайт (ASU700SS-256GT-C, прошивка B170428a);
  4. (ASU800SS-256GT-C, прошивка P0801A);
  5. (ASU900SS-512GM-C, прошивка P1026A);
  6. Crucial BX500 240 Гбайт (CT240BX500SSD1, прошивка M6CR013);
  7. Crucial MX300 275 Гбайт (CT275MX300SSD1, прошивка M0CR021);
  8. (CT250MX500SSD1, прошивка M3CR010);
  9. GOODRAM CX300 240 Гбайт (SSDPR-CX300-240, прошивка SBFM71.0 );
  10. (SSDPR-IRIDPRO-240 , прошивка SAFM22.3);
  11. (SSDPED1D280GAX1, прошивка E2010325);
  12. (SSDSC2KW256G8, прошивка LHF002C);

Эра популяризации SSD началась с введением на рынок Windows 7. Это первая система от Microsoft, которая правильно работала с этим типом памяти и не вела к преждевременному выходу диска из строя. В то же время появились первые серьезные проблемы с этими носителями.

Источник беспокойства

Вновь установленный носитель SSD в системе Windows XP работал плавно, однако, с течением времени, чрезмерное количество записей, генерируемых системой, вызывало неисправности в работе SSD. То не было ни виной системы, ни оборудования – плохой идеей было просто такое соединение продуктов.

В начальной стадии развития SSD возникали также проблемы с дисками Intel. В большинстве испытаний были отличные результаты, однако, попытка использования в тесте Iometer вела к повреждению носителя. В реальных условиях продукты работали без оговорок.

Большую неудачу потерпела компания OCZ, которая в серии дисков Vertex использовала новаторский контроллер, встроенный в SSD. По разным сообщениям, до ⅓ всех носителей вышли из строя в течение первого года работы.

Однако, для современных SSD производители гарантируют очень высокий уровень TBW. Поэтому слабая стойкость дисков SSD – это прошлое.

Total Bytes Written – главный параметр диска SSD

Указанный выше параметр TBW (от англ. Total Bytes Written) является наиболее важным параметром, определяющим качество SSD. Им обозначают общее количество терабайт, запись которых производитель гарантирует для данной модели.

Значения TBW зависят, в первую очередь, от типа используемой флэш-памяти. При условии, что система записывает на диск, в среднем, несколько гигабайт в день, типичный дешевый SSD с уровнем TBW порядка 20-50 ТБ прослужит около 10 лет.

TBW зависит от количества, так называемых, циклов стирания и записи одной ячейки памяти. У памяти TLC (Triple Level Cell) 500-3000 циклов, а для памяти MLC (Multi Level Cell) этот параметр на уровне 3000-10000 циклов. Самые дорогие, но самый эффективный и наиболее надежные модели SSD используют память SLC (Single Level Cell) – количество операций стирания и записи ячеек памяти достигает 100 000 циклов.

Забота о прочности SSD

Инженеры, создающий SSD, разумеется, знают об этих ограничениях записи, поэтому используют соответствующие функции. К наиболее важным следует отнести Wear Leveling – равномерное чередование записей в наименее нагруженных ячейках.

Специальные таблицы, собирающие информацию о проделанном числе записей, позволяют размещать в ячейках, находящихся ближе «к концу жизни», те данные, которые предназначены только для чтения (чтение данных не расходует ресурс SSD ). Кроме того, каждая память SSD имеет запас ячеек для замены поврежденных.

Современные компьютеры имеют всё больше и больше оперативной памяти, поэтому в последнее время вернулись к идее использования её в качестве, так называемого, ram-диска, используемого для кэширования данных. Такие решения предлагают, в частности, Crucial и Plextor. Имея в виду продление работы SSD за счет уменьшения количества записей, виртуальный диск имеет смысл.

Появляются новые алгоритмы, управляющие сохранением данных в памяти, поэтому стоит проверять наличие новой прошивки для SSD. Установив программное обеспечение производителя, также стоит использовать предлагаемые изменения в конфигурации системы, которые направлены на увеличение срока службы и производительности SSD.

Тестирование SSD на прочность

Многие компании пытались измерить срок службы SSD – хороших результатов достигли в TechReport. В тесте проверили поведение несколько разных накопителей емкостью 240 ГБ. Самым слабым оказался Samsung SSD 840 с памятью TLC, который без проблем записал 100 ТБ данных, после чего стал происходить перенос данных из поврежденных ячеек в запасные. При дальнейшей работе диск смог перезаписать ещё почти 900 ТБ данных.

Kingston HyperX с памятью MLC записал без проблем около 600 ТБ, а при возникновении признаков перераспределения ячеек ещё 200 ТБ. Intel SSD 335 записал 728 ТБ, а затем переключился в режим «только чтение», что позволяет скачать записанные данные.

Лучший результат показал Samsung 840 Pro. Правда, переназначение секторов начало происходить после записи около 600 ТБ данных, однако, полное повреждение SSD произошло после сохранения 2,5 PB. Ни в одном из протестированных дисков не наблюдалось падения производительности.

Провести тесты SSD в большом масштабе обещает компания Backblaze – поставщик облачных услуг. В случае жестких магнитных дисков она регулярно выпускает отчеты для десятков тысяч используемых приводов.

SSD для параноиков

Если невероятно высокая долговечность SSD Вас ещё не убедила, Вы всегда можете перестраховаться. Одним из самых простых способов является массив RAID1, то есть дублирование данных на двух дисках.

Если у вас нет доверия к SSD, можно использовать массив RAID1, состоящий из одного твердотельного диска и одного жесткого диска. Благодаря этому, Вы получите скорость работы и уверенность в том, что никакие данные не будут потеряны в случае сбоя любого из носителей данных. Кроме того, решение будет дешевле, чем массив, состоящий из двух дисков SSD.

MTBF не определяет срока службы диска

Купив SSD, не стоит руководствоваться параметром MTBF (Mean Time Between Failures). В случае жестких дисков (HDD) он измеряется в сотнях тысяч, а SSD – в миллионах часов.

Например, среднее время наработки на отказ жесткого диска Seagate Barracuda 7200.11 – 700 тысяч. часов. Может показаться, что диск не завершит работу в течение 240 лет при работе по 8 часов в сутки. К сожалению, MTBF означает только вероятность отказа – 2920 часов в год (8 часов в день), деленное на 700 000 часов и умножить на 100%, означает, что вероятность отказа 0,42%. Другими словами один диск из 240 выходит из строя в течение года.

Современные SSD-накопители достаточно надежные, а с учетом того, что цена за 1 ГБ (в долларах) постепенно падает, то использовать SSD во многих случаях даже более рационально, чем работа с HDD. Но какой SSD выбрать?

Полтора года назад журналист Tech Report решил провести эксперимент по выявлению наиболее надежных SSD. Он взял шесть моделей накопителей: Corsair Neutron GTX, Intel 335 Series, Kingston HyperX 3K, Samsung 840, Samsung 840 Pro, и поставил все шесть на цикличный процесс чтения/записи. Объем памяти каждого накопителя составлял 240-256 ГБ, в зависимости от модели.

Сразу стоит сказать, что все шесть моделей успешно выдержали заявленную производителем нагрузку. Более того, большинство моделей выдержало больше циклов чтения-записи, чем это заявлено разработчиками.

Тем не менее, 4 из 6 моделей сдались перед достижением объема в 1 ПБ «прокачанной» через диск информации. Зато 2 модели из тех, что участвовали в этом аттракционе «железной смерти» (Kingston и Samsung 840 Pro) выдержали даже 2 ПБ, и только потом отказали. Конечно, выборка из 6 SSD не может служить показателем работы для всех SSD без исключения, но определенная репрезентативность у этой выборки все же есть. Процедура цикличного чтения-записи тоже не идеальный показатель, ведь накопители могут выходить из строя по самым разным причинам. Но результаты теста очень интересны.

Один из выводов: производители достаточно деликатно подходят к вопросу выбора лимита работы своих накопителей - как уже говорилось выше, все SSD выдержали положенный лимит объема записанной информации.

Что касается самих моделей, то первым вышел из строя Intel 335 Series . У SSD этой модели есть одна особенность - они прекращают работу, как только появляются сбойные сектора. Сразу после этого накопитель входит в режим чтения, а затем и вовсе превращается в «кирпич». Если бы не инструкция «остановись при сбое», возможно, SSD проработал бы и дольше. Проблемы начались с диском уже после прохождения отметки в 700 ТБ. Информация на диске оставалась читаемой до момента перезагрузки, после чего диск превратился в кусок железа.

Samsung 840 Series успешно дошел до отметки в 800 ТБ, но начал показывать большое количество ошибок, начиная с 900 ТБ, и отказал без всяких предупреждений, не дойдя до петабайта.

Следующим отказал Kingston HyperX 3K - у модели тоже есть инструкция прекращать работу при появлении ряда сбойных секторов. К концу работы устройство начало выдавать уведомления о проблемах, позволяя понять, что конец близко. После отметки в 728 ТБ накопитель перешел в режим чтения, и после перезагрузки перестал отвечать.

Corsair Neutron GTX стал следующей жертвой, пройдя отметку в 1.1 ПБ. Но у накопителя уже насчитывались тысячи сбойных секторов, устройство начало выдавать большое количество предупреждений о проблемах. Даже спустя ещее 100 ТБ диск позволят записывать данные. Но после очередного ребута устройство перестало даже определяться системой.

Осталось всего две модели Kingston и Samsung 840 Pro, которые героически продолжали работать, достигнув отметки даже в 2 ПБ.

Kingston Hyper X использует сжатие данных по возможности, но тестировщик стал записывать несжимаемые данные для чистоты теста. Для этого использовалась программа Anvil"s Storage Utilities, служащая для выполнения тестов по чтению-записи данных.

Диск показал хорошие результаты, хотя на промежутке между 900 ТБ и 1 ПБ уже возникли неисправимые ошибки, плюс поврежденные сектора. Ошибок было всего две, но это все равно проблема. После того, как диск отказал на 2.1 ПБ, он перестал определяться системой после ребута.

Последним павшим железным солдатом в этой битве стал Samsung 840 Pro

Твердотельные накопители очень популярны. Оно и понятно: данный тип устройств заметно ускоряет работу дисковой подсистемы компьютера. Из-за чего даже не самые производительные ноутбуки и настольные ПК буквально обретают вторую жизнь. Наконец-то стоимость SSD нельзя назвать очень высокой, хотя по такому параметру, как «стоимость за 1 Гбайт» они заметно уступают классическим винчестерам на магнитных пластинах.

Колонка редактора: несколько фактов о надежности SSD

Тенденции таковы, что под натиском твердотельных накопителей жесткие диски сдают свои позиции. Так, по прогнозам HGST, глобальный спрос на HDD всех форм-факторов (2,5’’, 3,5’’, гибридные) в ближайшем будущем будет снижаться. Если в 2014 году было реализовано приблизительно 561 млн винчестеров, то в этом году ожидается поставка всего 550 млн устройств данного типа. В 2016 году темп снижения спроса на HDD увеличится. Планируется, что будет реализовано всего 538 млн жестких дисков. В сегменте винчестеров для десктопов планируется снижение поставок со 156 млн штук в 2014 году до 152 млн в 2015 году и 150 млн в 2016 году соответственно. Особенно заметна тенденция в сегменте портативных компьютеров (читай - ноутбуков), где все чаще практикуется методика распайки несъемного ПЗУ прямо на материнской плате. Здесь спрос снизится со 171 млн штук в 2014 году до 161 млн единиц в этом году. Ожидается, что в 2016 году будет реализовано всего 147 млн ноутбучных HDD.

Естественно, главной причиной заметного снижения спроса на классические жесткие диски является рост популярности SSD. Но доверите ли вы сохранность всей своей информации этим устройствам?

HDD сдают свои позиции под натиском твердотельных накопителей!

Не так давно наши коллеги из Tech Report завершили полуторагодичный эксперимент по тестированию сразу нескольких твердотельных накопителей. В испытании на выносливость приняли участие следующие SSD: Corsair Neutron GTX, Intel 335, две модели Kingston HyperX 3K, Samsung 840 и Samsung 840 Pro. Все устройства имели емкость в пределах 240-256 Гбайт. Инициаторы эксперимента на протяжении всего отрезка времени измеряли объем записанной и считанной с SSD информации и изменение их производительности. Что касается второго пункта, то во всех случаях за отведенные 18 месяцев ни у одного из твердотельных накопителей не возникло проблем с критичным падением уровня быстродействия, хотя и были обнаружены некоторые временные колебания.

Обычно производители указывают в технических характеристиках количество циклов чтения/записи, а также максимальный объем записи информации. Например, твердотельный накопитель Samsung 840 Pro имеет 5-летнюю гарантию, в рамках которой на SSD ежедневно может записываться до 40 Гбайт информации. Нетрудно подсчитать, что заявленный «объем надежности» этого устройства составляет 5*365*40=73000 Гбайт. Среднее время наработки на отказ равно 1,5 млн часов (~171 год).

Так вот, все испытуемые накопители продемонстрировали показатели лучше, чем заявленные производителем. Правда, до отметки в 1 Пбайт (1048576 Гбайт) дожило лишь два SSD. Самым первым «умер» твердотельный накопитель от Intel. Причем его «смерть» была запрограммирована самим производителем. Накопитель элементарно имеет конкретное ограничение по лимиту записанной информации. Это сделано с целью предотвратить потерю данных если у диска закончится время эксплуатации. После того как срабатывает программная блокировка, записанные данные можно только считать с устройства. Записать новые файлы на «твердое тело» в дальнейшем уже не получится. Долгожителями же оказались SSD от Kingston и Samsung - они сумели преодолеть лимит в 2 Пбайт.

Очевидно, что подобный (пусть и очень наглядный и интересный) эксперимент стоит рассматривать исключительно в качестве информации к размышлению, так как на протяжении всех 18 месяцев твердотельные накопители работали в одном сценарии нагрузки. Однако очевиден и другой момент: накопители от известных производителей полностью соблюдают гарантийные условия эксплуатации и даже превосходят их.

Результаты тестирования Tech Report

Достаточно интересную закономерность на днях представили в инженерно-техническом комитете JEDEС, занимающимся стандартизацией и сертификацией памяти. На суд общественности была представлена презентация , в которой наглядно описываются риски хранения информации на твердотельных накопителях. Как итог, JEDEC не рекомендует подолгу оставлять SSD без питания.

Это просто физика. Для того чтобы ячейке NAND-памяти держать заряд, а, следовательно, хранить записанную на ней информацию, ей необходима определенная подпитка. Нахождение на протяжении долгого времени в выключенном состоянии может привести к безвозвратной потере данных. В некоторых случаях речь идет о считанных неделях и днях. Особенно потенциальной возможности полной потери информации подвержена память типа TLC, выполненная по достаточно тонким технологическим нормам.

Некоторые производители тоже перестраховываются, периодически указывая гарантированное время, на протяжении которого информация никуда не исчезнет. Для потребительских твердотельных накопителей обычно этот отрезок равен году. Для корпоративных SSD - трем месяцам. Но этот параметр очень сильно варьируется от температуры окружающей среды. Ее изменение даже на пять градусов может привести к тому, что время гарантированного хранения данных сократится вдвое. Например, если запись данных на твердотельный накопитель осуществляется при температуре 25 градусов Цельсия или рабочая температура не превышает 40 градусов Цельсия, то ожидаемый срок хранения информации составит 105 недель с момента отключения питания. То есть приблизительно два года. Если же в ходе записи температура повысится хотя бы на пять градусов Цельсия (до 30 градусов), то ожидаемый срок хранения данных сократится вдвое - до одного года. Интересно, что при низких температурах записи, но высоких температурах хранения накопителя в выключенном состоянии счет может идти на недели. В некоторых случаях информация может быть частично потеряна уже через неделю после отключения питания.