Ремонт жесткого диска или восстановление информации? В чем разница?

Немного терминологии

Вот звонят нам и спрашивают: а вы ремонт жесткого диска делаете? А мы отвечаем — нет, не делаем. Мы данные восстанавливаем. И задает звонящий, казалось бы, закономерный вопрос: а в чем разница? Ведь чтобы данные из жесткого диска восстановить, нужно его в рабочее состояние привести. Отремонтировать, то бишь.

Увы, но это не так. Данные мы можем и из неотремонтированного диска извлечь. И даже из совсем сломанного — скажем, если у него одна головка не работает. Или даже две. Или вот перестала у него микропрограмма работать — ну кирпич кирпичом, а не жесткий диск. А мы все равно можем из него информацию достать.

А все оттого, что ремонт жесткого диска и восстановление из него данных — это вообще разные вещи. Принципиально разные.

Ремонт жесткого диска — последовательность действий, в результате которых на выходе мы получим исправный, готовый к эксплуатации жесткий диск.

Восстановление информации из жесткого диска — последовательность действий, в результате которых на выходе мы получим копию данных из этого жесткого диска.

Восстановление информации из жесткого диска

Как вы уже поняли, для того, чтобы восстановить данные из жесткого диска, нам вовсе не обязательно его ремонтировать. Как так — спросите вы? Вот пара примеров.

  1. Жесткий диск не может запуститься, как следствие — доступа к данным нет. В результате диагностики обнаружено, что часть критичной информации в микропрограмме диска не считывается и, как следствие, эта часть микропрограммы не запускается. Результат: диск не может стартовать в штатном режиме и не дает доступа к информации. Для того, чтобы получить к ней доступ, мы взяли другой, такой же, но полностью исправный, диск, скопировали из микропрограммы неисправного диска нужные для доступа к данным части, перенесли их в исправный диск. После этого запустили исправный диск и перенесли его управляющую плату электроники на неисправный HDD. Таким образом был получен доступ к данным, которые и были успешно скопированы на исправный накопитель. Неисправный диск при этом так и остался неисправным.
  2. Жесткий диск не может запуститься, так как одна из головок чтения-записи в его блоке магнитных головок неисправна. При запуске диск опрашивает головки, и если выявляются проблемы — запуск НЖМД блокируется (диск уходит в защиту). Мы производим логическую подмену неисправной головки на исправную, после чего диск запускается в штатном режиме и мы копируем данные, находящиеся по исправным головкам.

Ремонт жесткого диска

А вот с ремонтом все совсем по другому. Цель ремонта — получить исправное устройство. Как следствие, данные на ремонтируемом устройстве не являются целью проводящихся работ.

Ремонт включает в себя несколько этапов, после которых о данных на ремонтируемом накопителе говорить уже не приходится. Прежде всего, это многочисленные операции заводского самотестирования (selfscan, или selftest). Что это такое?

Самотестирование — заложенная заводом-производителем возможность жесткого диска провести самостоятельный ремонт. Заводское самотестирование требует предварительной настройки и обычно запускается специальной командой. После запуска, в зависимости от состояния диска и его объема, самотестирование продолжается от 12 часов до двух недель. Оно не требует вмешательства оператора, результатом самотестирования будет жесткий диск в двух состояниях: исправное (самотестирование закончилось без ошибок) или неисправное (какие-то части самотестирования прошли с ошибками).

В процессе самотестирования диск проходит многочисленные тесты, один из которых — тест записи. Микропрограмма записывает определенный набор данных в каждый сектор и неоднократно проверяет, как прошла запись, с какой скоростью, и т.п. Это, как вы понимаете, приводит к потере информации.

После ремонта проводится и другой деструктивный для данных процесс: выходное тестирование. Ремонт подразумевает гарантию на него, следовательно, ремонтник должен удостовериться, что ремонт проведен качественно, накопитель работает в пределах эксплуатационных допусков и не выйдет из строя через пару дней по причине скрытого износа.

SSD. Время перемен. Часть 3. Модернизируем настольный компьютер

Введение

В предыдущих частях этой статьи (первая посвящена общему анализу технологии, вторая — практическим примерам модернизации мобильных компьютеров) мы рассмотрели теоретические и некоторые практические вопросы применения твердотельных дисков. В этой, заключительной, части статьи мы рассмотрим вопросы практического применения SSD для настольных компьютеров.

Применение твердотельных дисков, в отличие от мобильных ПК, для настольных компьютеров до сих пор не является стандартом. Исключение составляют только некоторые продукты корпорации Apple (Apple iMac), оборудованные и SSD, и HDD. Эта связка в таких устройствах объединяется в своеобразный дисковый массив, называемый fusion drive. С одной стороны, использование такого массива заметно повышает производительность дисковой подсистемы iMac. С другой стороны, выход из строя любого элемента fusion drive приведет к отказу системы целиком.

Однако мы не будем касаться современных решений использования SSD в настольных компьютерах, а поговорим о модернизации.

Понятное дело, если на материнской плате компьютера имеется разъем M.2, который используется для подключения высокоскоростных SSD, все становится весьма просто: устанавливаем в этот разъем твердотельный диск, и все. Модернизация завершена.

Ну а если такого разъема нет? Действительно, большинство материнских плат компьютеров, купленных до 2018 года, такого разъема не имеет; да и для современных материнских плат это пока еще вовсе не широко распространенный стандарт. А высоких скоростей хочется. Как быть?

Ничего сложного. Более того: для модернизации настольного компьютера с использованием SSD у нас имеется два принципиально разных пути: использовать SATA SSD или использовать PCIe SSD.

Используем SATA SSD. Asrock G41M-VS3

SATA SSD мы будем использовать в том случае, когда материнская плата не поддерживает загрузки с PCIe-устройств — то есть для достаточно старых компьютеров. Основное требование при модернизации таких машин — дешевизна, так как суммарная стоимость установленных в них комплектующих может не превышать стоимости SSD, необходимого для модернизации.

С учетом того, что требуется максимальная дешевизна модернизации, будем использовать твердотельный диск минимального, но оптимального объема 128 Гбайт. Наш выбор пал на SSD Samsung Thin 128 GB mSATA MLC. Этот диск можно купить по цене 30 — 35 долларов США; переходник с mSATA на стандартный SATA будет стоить примерно 3 доллара. Таким образом, в самом неблагоприятном случае стоимость модернизации составит всего 40 долларов США.

SSD Samsung 128 GB для модернизации настольного ПК

Конфигурация ПК перед модернизацией: процессор Intel Core 2 Quad Q6600 (2,4 GHz), ОЗУ 4 Гбайт DDR3, жесткий диск 320 Гбайт Seagate Barracuda 7200.10. Видеокарта: интегрированная в чипсет. Первоначальая скорость загрузки операционной системы (Windows 8.1) составляет 52 секунды, скорость загрузки ПО Adobe Photoshop CC — 27 секунд.

После установки SSD мы получили: скорость загрузки операционной системы 14 секунд, скорость запуска ПО Adobe Photoshop CC — 9 секунд. Прирост производительности почти в 4 раза. Для настольного компьютера, для которого потолок производительности при замене процессора и установке максимального количества ОЗУ составит не более 30%, это совсем не плохой результат. Заметим попутно — результат за 40 долларов США.

Примечание. Перед тем, как использовать ваш новый SSD, включите в BIOS компьютера интерфейс AHCI, иначе прироста производительности, который получен нами, не будет.

Используем M.2 SSD. ASUS H110M-R

В тех случаях, когда в BIOS материнской платы имеется поддержка загрузки с устройств PCIe, имеет смысл (причем как в ключе увеличения производительности, так и в ключе стоимости модернизации) установить M.2 SSD в разъем PCIe. Это потребует несколько больших расходов, чем в предыдущем случае, но результатом вы точно не разочаруетесь.

Материнская плата ASUS H110M-R, конфигурация компьютера: процессор Core i5-7400 3 ГГц, 16 Гбайт ОЗУ двумя планками по 8 Гбайт (DDR4) и HDD 1 TB Seagate Barracuda. Видеоподсистема: интегрированная в чипсет графика.

SSD и M.2 — PCIe адаптер, используемые для модернизации ПК на базе материнской платы ASUS

Зарузка Windows 8.1: 43 секунды, запуск приложения Adobe Photoshop CC: 18 секунд.

Что нам потребуется? Непосредственно сам твердотельный диск и адаптер для его подключения на шину PCIe. Причем с адаптерами возникает довольно приятная ситуация: на рынке их довольно много, цена варьирует от 4 до 12 долларов США. Выбирать адаптер следует не по производителю, а по поддерживаемой скорости PCIe. Скажем, если на материнской плате вашего компьютера установлены PCIe разъемы х4, то смысла покупать более дорогие переходники на х16 нет. Конечно, они будут прекрасно работать и на х4, но стоить они будут заметно (минимум в 2 раза) дороже.

Теперь будем выбирать SSD. Тут все зависит от того, на какой бюджет вы рассчитываете. Для настольного ПК комбинация «SSD под систему, HDD под данные» является оптимальной, поэтому в большинстве случаев должно хватить твердотельного диска объемом 120 — 128 Гбайт (цена варьирует от 30 до 35 долларов США). Если вы любите время от времени поиграть в какие-то более-менее ресурсоемкие игры (например, шутеры), то лучше установить SSD побольше — 240 — 256 Гбайт (стоимость 40 — 50 долларов США). Как видите, цена отличается не слишком сильно. Однако имейте ввиду, что цены указаны для так называемых «средних» производителей — Kingston и ADATA. Если вы захотите что-то более «брендовое», например Samsung, то за M.2 SSD емкостью 128 Гбайт придется заплатить 80 долларов, а 256 Гбайт обойдется уже в 120.

Для нашего апгрейда мы выбрали SSD ADATA XPG SX6000 емкостью 256 Гбайт и ценой 49 долларов США и адптер-переходник PCIe — M.2 NGFF за 7 долларов США (на Aliexpress такой можно купить и за 5). Кстати, аббревиатура NGFF, часто встречающаяся как расширение М.2, на самом деле является синонимом этого интерфейса и буквально означает Next Generation Form Factor (форм-фактор следующего поколения).

Общая сумма модернизации: 56 долларов США. Теперь посмотрим, с какой скоростью работает машина.

Загрузка Windows 8.1 — 12 секунд. Запуск приложения Adobe Photoshop CC — также 8 секунд. Прирост производительности в 3 — 4 раза, и это для относительно свежего компьютера.

Выводы

Как результат описанных здесь и во второй части этой статьи модернизаций можно уверенно сделать три вывода.

Вывод первый. При соблюдении определенных условий модернизация компьютера с использованием SSD может привести к повышению производительности до 4 — 5 раз.

Вывод второй. Стоимость модернизации компьютера для достижения производительности в 4 — 5 раз превышающей исходную, обычно не превышает 100 долларов США.

Вывод третий, он же основной. Как нам думается, пришло время для перевода компьютеров с основного загрузочного устройства HDD на SSD. Соотношение «стоимость модернизации/прирост производительности» значительно лучше, чем раньше, когда для достижения более-менее приемлемого и видимого глазу результата требовалась замена едва ли не всех комплектующих.

Seagate анонсировала начало отгрузки дисков 20 ТБ в 2020 году, и 50 ТБ в 2026: мечты или реальность?

Год назад, 2 ноября 2018 года, на презентации в Лондоне (Tech Live Event) компания Seagate анонсировала развитие двух своих технологий: HAMR (Heat-Assisted Magnetic Recording: термо-магнитная запись; при записи данных участок поверхности локально нагревается до примерно 450 градусов Цельсия, что позволяет произвести запись более точечно, тем самым увеличив плотность записи) и MACH.2 (двойной актуатор; в теории позволяет в два раза увеличить производительность устройства за счет наличия в гермоблоке двух независимых актуаторов; в перспективе предполагается использовать больше двух актуаторов (multi-actuator)) уже не в виде опытных образцов, а в виде промышленных продуктов.

На слайдах с этой презентации, мгновенно просочившихся в Сеть, показан довольно любопытный график: планы Seagate по производству и отгрузке жестких дисков определенной емкости и технологии.

Фрагмент презентации компании Seagate о перспективах и планах по производству жестких дисков с технологией HAMR

Как видно из этого графика, планы компании Seagate пока сбываются: на текущий момент купить диск емкостью 16 Тбайт не представляет сложности. Ниже вы можете просмотреть презентационное видео о технологии HAMR (на английском языке).

Другая ипостась производства дисков высокой емкости — использование технологии MACH.2, относительно которой Seagate на упомянутой выше презентации представляла следующее:

Планы Seagate о производстве мультиактуаторных дисков (слайд из презентации на Tech Live Event в Лондоне)

Как мы видим из приведенного графика, производство первого поколения мультиактуаторных дисков (емкость 14 ТБайт) была намечена на текущий год.

Начнем с MACH.2. Не смотря на анонсы, массового производства этих дисков пока не наблюдается. Возможно, они появятся в ноябре (который, к слову, скоро уже перевалит за половину), или в декабре; но скорее всего, мы увидим их выпуск в следующем, 2020, году. Чтож, подождем.

Гораздо интереснее нам видится вопрос с увеличением емкости. Согласно первому графику, в 2019 году мы должны были увидеть в продаже жесткие диски емкостью 16 Тбайт. И действительно, такие диски можно легко купить в большинстве компьютерных магазинов — например, в российском интернет-магазине DNS.

Начало продаж дисков емкостью 18 Тбайт, построенных на архитектуре HAMR, ожидается в первой половине следующего года, а диски емкостью 20 Тбайт должны появиться уже во второй половине 2020. Эти планы выглядят гораздо более реалистичными, чем начало продаж дисков с двойными актуаторами хотя бы потому, что диски емкостью 16 Тбайт в продаже уже минимум полгода.

Известен закон увеличения емкости жестких дисков: ежегодно прирост емкости составляет от 40 до 60%. То есть, даже если предположить 40%-ный прирост емкости ежегодно, то есть движение по самому пессимистичному сценарию, в 2020 году относительно сегодняшних 16 ТБайт емкость дисков должна увеличиться минимум на 6 Тбайт, то есть предел, которого достигнут жесткие диски к концу 2020 года, теоретически составит 22 Тбайта. На этом фоне заявление корпорации Seagate о начале отгрузок 20-терабайтных монстров во второй половине 2020 года выглядит более чем реально.

Давайте примерим этот же алгоритм на 2026 год и подумаем, сбудется ли прогноз о дисках емкостью 50 Тбайт (заметим, что твердотельные диски емкостью 100 Тбайт уже давно есть в продаже, правда стоимость их не внушает оптимизма). Итак, 2020 год — максимальная емкость НЖМД составит 20 ТБ. Соответственно, в 2021 году — 28, в 2022 — около 40, а уже в 2023 — 50 и выше. Очевидно, корпорация Seagate не питает иллюзий в плане увеличения емкости своих изделий и берет пару лет на раскачку. Чтож, это разумно.

Какие выводы можно сделать из всего, сказанного выше? Нас еще очень долго ждет неравная борьба между SSD и HDD, и HDD в этой борьбе вовсе не будут сдаваться. Думаю, что мы еще увидим жесткие диски емкостью 100 Тбайт — и будут они намного дешевле, чем аналогичные SSD.

Заметим, что другой гигант индустрии устройств для хранения данных, Western Digital, анонсировал, что диски емкостью 20 Тбайт будут выпущены им еще до конца 2020 года. Toshiba тоже самое обещает про диски емкостью 18 Тбайт. Гиганты наступают друг другу на пятки, а мы запасаемся попкорном и ожидаем, кто же в итоге первым перешагнет порог в 50 Тбайт.

SSD. Время перемен. Часть 2. Модернизируем ноутбук

В первой части этой статьи мы поговорили о том, какими положительными и отрицательными качествами обладают твердотельные диски, и пришли к выводу, что эти диски, не смотря на все еще относительно высокую цену, являются достойной заменой жестким дискам.

Во второй части этой статьи мы предлагаем конкретные примеры модернизации компьютеров с использованием SSD. Это наш личный опыт, поэтому рекомендации не являются голым теоретизированием, а подкреплены практикой.

Итак, поехали.

Lenovo B570e

Ноутбук, скажем так, далеко не первой свежести. Исходная конфигурация: HDD 1 TB Hitachi, ОЗУ 2 Гбайт DDR3, процессор Core i3-2350M 2,3 GHz; видеоподсистема представлена двумя графическими ядрами: встроенное в чипсет Intel HM65, а также «внешняя» видеокарта NVidia N12M (1 Гбайт памяти). Возраст устройства: около 10 лет.

Как мы можем видеть из приведенной конфигурации, у этого мобильного компьютера имеется три слабых места: процессор, ОЗУ и жесткий диск. Предустановленная операционная система (Windows 7 Home) в оригинальной конфигурации загружается 44 секунды. Для открытия ресурсоемкого приложения Adobe Photoshop CC требуется 32 секунды. Компьютер можно охарактеризовать одним словом: тормоз.

Lenovo B570E: заменяемые узлы

C учетом того, что материнская плата ноутбука не поддерживает процессоры старше Core i5-2520, не сильно отличающийся от установленного Core i3-2350 (фактически отличия лишь в том, что процессор пятого поколения может быть сильнее разогнан, чем процессор третьего; ну и, естественно, другой производственный процесс), модернизировать процессор не требуется.

Таким образом, требуется замена жесткого диска на твердотельный и наращивание ОЗУ. Владелец ноутбука очень требователен к количеству свободного места на своих дисках — твердотельный диск необходимой емкости превышает по стоимости сам ноутбук, поэтому в дисковую подсистему было принято решение добавить дополнительный жесткий диск, подключенный вместо оптического привода.

Модули памяти для ноутбука Lenovo B570e, общий объем 16 Гбайт

Итак, что у нас получилось. Вместо модуля памяти SODIMM DDR3 2 GB было установлено 2 модуля памяти SODIMM DDR3 8 GB, суммарный объем ОЗУ увеличен с 2 Гбайт до 16. Стоимость двух модулей памяти составила 60 долларов США.

Вместо жесткого диска HDD Hitachi 1 TB был установлен SSD ADATA SU-800 емкостью 512 Гбайт; вместо оптиеского привода был установлен second caddy, в который смонтирован жесткий диск Seagate Mobile HDD емкостью 2 Тбайт. Суммарная емкость дисковой подсистемы увеличена с 1 Тбайт до 2,5 Тбайт. Стоимость составила: SSD — 65 долларов США, second caddy — 9 долларов США, HDD — 80 долларов США. Итоговая сумма, потребовавшаяся на модернизацию устройства: 214 долларов США.

Second caddy и диск Seagate Mobile HDD 2 TB, установленные в ноутбук Lenovo B570e.

Довольно солидная сумма, но то мы в итоге получили?

Загрузка операционной системы Windows 7 Home: 5 секунд (против 44 в исходной конфигурации). Загрузка ПО Adobe Photoshop CC: 3 секунды (против 32 в исходной конфигурации). Прирост производительности, как мы видим, примерно в 10 (ДЕСЯТЬ!!!) раз.

Стоит ли такой прирост производительности этих расходов? Бесспорно. Работа без тормозов на этом ноутбуке теперь совершенно точно обеспечена.

HP Pavilion 15-e057sr

Также, как и предыдущий пример — довольно старый ноутбук, произведен в 2015 году. Конфигурация несколько лучше, чем у предыдущего: HDD 1 TB Samsung, ОЗУ 6 Гбайт DDR3, процессор Core i5-3230M 2,6 GHz; видеоподсистема представлена двумя графическими ядрами: встроенное в чипсет Intel HM76, а также «внешняя» видеокарта AMD Radeon HD 8670M (1 Гбайт памяти).

Очевидно, что с процессором в данном устройстве пока еще все более-менее хорошо; объем ОЗУ также вполне удовлетворительный. Однако скорость загрузки операционной системы (Windows 8.1 x64 Professional) составляет 29 секунд, а скорость запуска приложения Adobe Photoshop CC — 20 секунд. Результаты намного лучше, чем в исходной конфигурации предыдущего устройства, однако, как мы понимаем, могут быть заметно улучшены.

Модернизируемые узлы ноутбука HP Pavilion 15-e57sr

Принято решение модернизировать объем ОЗУ (в этом ноутбуке ОЗУ организовано в виде двух слотов SODIMM DDR3; в заводской конфигурации поставляется с двумя предустановленными планками SODIMM: 4 GB и 2 GB). Вместо планки на 2 Гбайт мы установим планку 4 Гбайт. Большого прироста производительности это не даст, но все же…

Жесткий диск будет меняться на SSD Samsung 850 EVO емкостью 256 Гбайт. Для устройства не требуется большой объем дискового пространства, поэтому данный объем является оптимальным и для функционирования операционной системы и установленных приложений, и для хранения некоторого объема необходимых данных (после установки ОС и ПО на диске остается не менее 150 Гбайт свободного места, которое можно использовать).

Модули SODIMM DDR3 для ноутбука HP Pavilion 15-e057sr

Итоговая сумма за модернизацию: SODIMM DDR3 4 GB — 30 долларов США, SSD — 70 долларов США; вся модернизация обошлась в 100 долларов США. Насколько мы выиграли при этом в производительности?

Загрузка операционной системы — 5 секунд. Загрузка ПО Adobe Photoshop CC — 3 секунды. Среднее увеличение производительности относительно исходной конфигурации минимум в 5 раз — солидный показатель, не так ли? За 100 долларов США получить компьютер в 5 раз быстрее старого — это более чем приятно.

Выводы

Очевидно, что самый главный вывод из этого материала будет очень простым: замена НЖМД на SSD в мобильном компьютере приводит к увеличению его производительности в разы, а если заменить не только жесткий диск, но еще и нарастить ОЗУ, то производительность может увеличиться на порядок.

Очевидно, что такой прирост производительности стоит всех вложенных в него денег до последнего цента.

Второй вывод: настало время для модернизаций. Стоимость SSD заметно снизилась, и теперь ваше до этого довольно медлительное устройство на жестком диске может обрести высокую скорость работы, при этом объем инвестиций не будет критически большим.

Рекомендации

Для того, чтобы провести модернизацию вашего ноутбука, вам нужно знать его характеристики: какой тип накопителя в нем установлен, поддерживает ли BIOS компьютера интерфейс AHCI (одна из важнейших характеристик интерфейса AHCI — MultiQueue, или многопоточная очередь задач, позволяющая использовать SSD в несколько потоков — за счет чего, собственно, и увеличивается производительность), какая в нем стоит ОЗУ, и пр. Если вы не уверены в том, что обладаете корректной информацией — вы всегда можете уточнить ее на сайте производителя или позвонить нам для бесплатной консультации.

Как вы уже поняли, для того, чтобы SSD функционировал на полную мощность, AHCI должен быть включен. Это легко можно сделать в BIOS устройства.

Наконец, последняя рекомендация. Если вы держите на своем ноутбуке важную информацию, приобретите внешний накопитель для резервного копирования или настройте облако (с теми же целями). А в идеале пусть у вас будет и то, и другое.

Следите за новостями — скоро будет опубликована третья часть этой статьи, в которой мы расскажем о том, как модернизировать настольный компьютер.

Windows 10Х: новая операционная система от Microsoft

2 октября 2019 года корпорация Microsoft анонсировала новую операционную систему — Windows 10X. Предполагается, что новая операционка появится на рынке через год.

Чем Windows 10X отличается от Windows 10 и более ранних версий Windows? Главные отличия — модульная структура операционной системы, полностью переработанное меню «Пуск» и отсутствие традиционных для Windows 10 плиток на рабочем столе.

Модульная структура позволяет легко подключать или отключать необходимые пользователю модули. Например, пользователю не нужен сервер сценариев Microsoft — он может его отключить. Или, наоборот, необходим — тогда его можно подключить. Что это дает? В идеале — кастомизацию операционной системы под каждое устройство. Вы сами настраиваете свою Windows, убирая ненужное и оставляя или подключая только то, что нужно. При этом, естественно, вы увеличиваете производительность машины.

Кнопка «Пуск» — это другое нововведение Windows 10X. Расположение этой кнопки и ее функциональность полностью отличаются от таковых в предыдущих версиях операционной системы. Кнопка находится в нижней части экрана и фактически заменяет традиционную панель задач. Можно сказать, что кнопка «Пуск» и панель задач Windows 10X слиты в единое целое.

Интерфейс Windows 10X. Кредит: https://cdn.vox-cdn.com

Наконец, плиточная структура основного меню, характерная для Windows 8 и Windows 10, в Windows 10X упразднена. Теперь основное меню выполняется в виде иконок, более характерном для мобильных телефонов. В меню можно разместить как иконки приложений, так и иконки наиболее часто используемых документов.

Как обычно, нас больше всего волнует вопрос совместимости.

Первое, и самое главное — эта операционная система заточена под двухдисплейные системы. Однако это не означает, что она не будет работать и на традиционных системах с одним экраном. Таким образом, ОС можно будет установить на любое устройство, в котором будет заявлена его поддержка.

Второе — приложения. Их, как и в случае с Windows 10, можно будет устанавливать как из магазина, так и извне — с установочных дисков или напрямую из интернета, с сайтов разработчиков. Разработчики новой операционной системы обещают поддержку старых 32-битных программ (новая операционная система, очевидно, будет выпускаться исключительно в 64-битном исполнении), которые будут работать в особом программном контейнере.

Ну и третье — драйвера. Очевидно, что для официально совместимых устройств драйвера будут поставляться с самим устройством, либо будут доступны для загрузки на официальном сайте производителя устройства. Что касается устройств, которые не имеют официальной совместимости с Windows 10X, то тут, очевидно, возможно два варианта развития событий. Первый — это выпуск производителем совместимых с Windows 10X драйверов, а второй — это использование драйверов, выпущенных для Windows 10. Как показала практика, в 80% случаев драйвера имеют обратную совместимость, и могут применяться для более новой операционной системы без проблем и ограничений.

Чтож, будем с нетерпением ожидать релиза новой, свежей, и, по обещаниям Microsoft, значительно более шустрой, чем предыдущие, операционной системы.

Наглядно: чем чреваты сильные удары крышкой ноутбука

Довольно многие владельцы ноутбуков поначалу весьма почтительно обращаются со своими устройствами: аккуратно закрывают крышку, плавно поднимают и также плавно ставят лаптоп на стол, протирают его мягкой тряпочкой или специальной салфеткой, и т.д. Но со временем отношение к устройству меняется, и наступает тот момент, когда владелец уже настолько к нему привык, что начинает обращаться с ним весьма небрежно.

Наиболее часто встречающиеся случаи такой небрежности — захлопывание крышки ноутбука, швыряние ноутбука на мягкие поверхности (например, диван), установка ноутбука на поверхности, перекрывающие вентиляционные отверстия на днище.

Поговорим немного о резком захлопывании крышки лаптопа. Это действие, особенно, если в ноутбуке установлен жесткий диск, потенциально весьма опасно — особенно, если компьютер во время захлопывания работает. Многие устройства такого типа при закрывании уходят в состояние гибернации. Владелец устройства, зная от этом, просто закрывает крышку, уверенный в том, что устройство сразу же заснет. Однако сразу же устройство не засыпает.

Процесс гибернации — довольно сложная последовательность действий, одним из начальных этапов которого является сброс содержимого ОЗУ на диск. Вы, наверно, замечали — когда вы закрываете крышку лаптопа, он отключается не сразу, а еще несколько секунд шумит вентиляторами и шевелит головками жесткого диска. Чем больше у вас было открыто окон, тем дольше будет скидываться содержимое ОЗУ на диск.

Вот тут-то и поджидает тот самый коварный случай. Закрывая крышку ноутбука, вы инициируете начало сбрасывания содержимого оперативной памяти на диск. А если вы хлопаете крышкой, то диск получает ощутимый удар — и при этом он что-то записывает! То есть он получает физический шок во время работы. А это неизбежно означает повреждения внутри гермоблока.

На фото внизу я привожу пример диска, которому хорошо досталось сверху при ударе крышкой ноутбука. Для сравнения — две фотографии аналогичного диска без таких повреждений.

На верхних двух фото — живой и здоровый диск. никаких повреждений. Диск, понятное дело, работает прекрасно.

На нижних двух фото — диск с повреждениями. Удар сверху был настолько сильным, что крышку диска вдавило внутрь. Она начала соприкасаться с крепежной шайбой шпинделя. Это хорошо видно по запилам на крепежной шайбе и крышке диска.

Вы скажете — ну и что? Поверхности-то целые, да и головки тоже.

Если вы действительно так думаете, то ответьте на простой вопрос: а куда в герметически закрытом корпусе девались все эти металлические опилки? Ответ прост: полетели лупить по поверхностям, по головкам. И чем дольше работает диск с такими повреждениями — тем больше достается поверхностям и головкам. Диск сначала начнет тормозить, на нем вдруг появятся дефекты. Ну а потом он просто откажется работать.

Наша рекомендация предельно проста: пользование ноутбуками, оснащенными жесткими дисками, должно быть максимально аккуратным. Старайтесь не подвергать их физическим воздействиям.

Кстати, если очень сильно бить по клавиатуре при наборе текста, можно тоже спровоцировать проблемы с жестким диском. Но такое случается намного реже, чем при сильных хлопках крышкой.

Крышка жесткого диска (вид изнутри), не подвергавшегося удару
Крышка жесткого диска (вид изнутри), подвергавшегося удару
Крепежная шайба пакета магнитных пластин жесткого диска, не подвергавшегося удару
Крепежная шайба пакета магнитных пластин жесткого диска, подвергавшегося удару

Телефон заблокирован: FRP. Что это такое и как с этим бороться.

Введение

До июня 2014 года украсть телефон на базе ОС Android было гораздо проще, чем сейчас. Хотя и сейчас украсть Android-телефон намного проще, чем iPhone или iPad, но все же… Просто до 2014 года в этой системе не было жесткой и хорошо продуманной системы защиты от несанкционированного использования чужого устройства. Будучи единожды проданным, по сути оно не было привязано к единственному владельцу, как это с самого начала было сделано в iOS. Действительно, политика смены владельца устройства Apple крайне проста: это возможно только в том случае, если владелец устройства сам передаст его вам, при этом удалив на своем устройстве все данные и отвязав его от своего Apple ID. Для Android все было намного проще: завладев аппаратом, можно сделать его сброс на заводские настройки (factory reset), после чего настроить под себя и начать использовать.

Оболочка EMUI, Android 8, аппарат Huawei Honor 7C

Шоколадно, не так ли?

Но в июне 2014 года народу была представлена новая операционка от Android под кодовым названием Lollipop, в которой оказалась реализована система защиты FRP: factory reset protection (защита от сброса до заводских настроек). В чем ее основная суть?

При первоначальной настройке телефона вы привязываете его к какому-либо аккаунту электронной почты – примерно также, как у Apple ID. По умолчанию (и это понятно, ведь андроид – продукт Google) используется почтовый сервис gmail корпорации Google. Если у вас нет аккаунта Google, при первом старте Android-устройства вам будет предложено его создать.

После того, как вы полностью проинициализировали свой телефон, он привязывается к настроенному аккаунту, что называется, намертво. Аккаунт можно изменить, привязав телефон к другому – но это делает настолько мало народа, что этим можно пренебречь.

Итак, вы настроили аккаунт и стали пользоваться аппаратом. И тут – о горе – телефон был утерян или его украли. Как правило, большинство пользователей блокируют экран или пин-кодом, или графическим ключом, или отпечатком пальца. Такую защиту почти невозможно обойти или взломать; нашедшему телефон или злоумышленнику не остается ничего другого, как выполнить factory reset. Что он и делает. И вот тут его поджидает FRP…

После выполнения сброса от пользователя потребуют повторить вход в связанный с телефоном аккаунт Google. Создать новый аккаунт будет невозможно: только вход в уже имеющийся, привязанный к устройству. Если вход выполняется с ошибками или не выполняется, телефон блокируется. В зависимости от производителя, блокировка может иметь разный вид: начиная от невозможности нормального старта аппарата (выход только на консоль восстановления) и заканчивая стартом аппарата, но блокировкой функционирования всех приложений (обычно при попытке тапнуть по приложению, выдается сообщение «Приложение не установлено»). Пользоваться таким устройством невозможно, новые попытки сброса заблокированы. Что-то сделать с телефоном можно лишь в том случае, если удастся отключить или обойти FRP.

Как бороться с FRP

Блокировка FRP. Аппарат Huawei P20 Pro

Итак, телефон заблокирован. Это, кстати, может не обязательно быть следствием злого умысла – скажем, при обновлении Android 8 до Android 9 (оболочка EMUI) вас также вполне могут попросить ввести установочные данные вашего Google-аккаунта. И если вы сделаете это неверно три раза – произойдет блокировка устройства. Поэтому крайне важно точно помнить данные своего аккаунта – при корректном их вводе проблем не возникнет.

Однако если все-таки вы стали «жертвой» FRP (повторюсь – это возможно даже по невнимательности), то методы обхода блокировки существуют, хотя почти все они связаны с новым (последующим) сбросом устройства. Ну а после сброса вам предстоит все-таки ввести корректные данные привязанного аккаунта, иначе все это зря. Либо сброс происходит с предварительной подготовкой – в систему добавляется новый пользователь, установочные данные которого известны, а права достаточны для того, чтобы устройство использовать.

Наиболее распространенный метод обхода блокировки FRP — переход в настройки устройства через Google Maps. Суть методики заключается в том, чтобы методами разрешенных переходов (ведь блокируется не весь телефон, а приложения) попасть в меню настроек аппарата, где либо попытаться ввести установочные данные связанного аккаунта, либо создать новый и привязать устройство к нему. Вариант с новым сбросом устройства в надежде на то, что после него он не попросит ввести данные аккаунта, можете даже не рассматривать: попросит. Часто пользователь просто создает гостевой аккаунт и пользуется устройством с него: мастер-аккаунт при этом остается замороженным, но если пользователю повезло и он смог создать «гостя» с высоким уровнем привилегий, он сможет устанавливать и удалять приложения, совершать звонки, фотографировать и т.п. – то есть делать все то, что может делать и «хозяин». Однако данные хозяина будут недоступны.

Еще один обход блокировки – зайти с компьютера в связанный аккаунт и стереть устройство с отвязкой аккаунта. После этого устройство можно будет сбросить без проблем и привязать на новый аккаунт.

Как видите, в любом случае – потеря данных. И это крайне неприятно.

Восстановление данных с устройств, заблокированных FRP

Даже с заблокированного FRP устройства восстановление данных возможно. Однако не следует путать восстановление данных и возвращение аппарата к жизни: специалист по восстановлению информации не преследует цели отремонтировать или разблокировать ваш телефон, его задача – извлечь с него данные.

Начнем с главного. Восстановить данные с FRP-блокированного телефона можно не со всех моделей. Важным критерием оценки восстановления информации с такого аппарата является наличие root-прошивки: если она есть, то восстановление возможно. Если же нет – то нужно ждать лучших времен, когда она появится. Выше я говорил, что аппарат не даст возможности совершить повторный сброс до заводских настроек, либо (если даст), то при запуске все равно попросит ввести установочные данные первоначального связанного аккаунта. Так как же заставить его принять root-прошивку?

Методики существуют. Самая простая – выход в настройки аппарата и создание нового пользователя, из под которого уже и рутится телефон. Сразу скажу: срабатывает не со всеми аппаратами, однако примерно половину заблокированных FRP устройств можно таким образом разблокировать. Другая половина разблокируется через «жесткий» root – то есть прошивка льется в плату телефона через JTAG или другие (предусмотренные производителем) протокола обмена данными. При этом крайне важно понимать, что как таковой разблокировки устройства не происходит – фактически мы всего лишь получаем доступ к внутренним накопителям телефона, которые можем скопировать к себе на жесткий диск, проанализировать и попытаться вытащить из них данные.

Почему попытаться? Довольно много моделей телефонов, которые продаются в настоящее время, зашифрованы. Это вовсе не обязательно, но встречается часто. Таким образом, даже получив образ аппарата, можно ничего не восстановить, так как данные зашифрованы. Однако и шифрование – еще не приговор. Для некоторых типов шифрования Android уже давно существуют программы – генераторы ключа, если известен пароль (пин-код).

По моему опыту можно сказать, что в случае блокировки FRP успешно восстанавливаются данные примерно с 75% телефонов; не поддаются восстановлению данные только с тех аппаратов, где хозяин не помнит никаких паролей, пин-кодов и прочих сведений, необходимых для расшифровки. Старайтесь не забывать пароли и установочные параметры связанных аккаунтов, и вам, скорее всего, никогда не придется восстанавливать данные с устройства, заблокированного FRP.

Станислав К. Корб ©2019

Восстановление фотографий в Бишкеке. Восстановление данных в Бишкеке

Эту статью я решил посвятить единственной проблеме: восстановлению цифровых фотографий. И причин тому три: во-первых, огромное количество людей ежедневно теряет свои бесценные снимки; во-вторых, многие потерявшие снимки, начинают восстанавливать их самостоятельно и весьма рискованными методами (часто – с плачевными последствиями); в-третьих, многих проблем с цифровыми снимками можно избежать, следуя простым рекомендациям.

Но – по порядку.

Цифровые фото – это те же файлы, что и любые другие, но их отличает одна особенность: место, откуда они берутся. Это цифровая фотокамера. Камера может быть самостоятельным устройством, а может находится в составе другого (наиболее часто это мобильный телефон, реже – GPS-навигатор или видеорегистратор). Из этого простого правила (источник цифровых снимков – цифровые камеры) следует простой вывод: цифровые фотографии генерируются в количестве, прямо пропорциональном количеству цифровых камер. Другими словами, ежедневно появляется бессчетное число новых цифровых снимков, под которые выделяется место в облачных хранилищах, на жестких дисках и других устройствах хранения информации. Количество такого контента постоянно растет.

До 90% всех фотографий в мире снимается в формате JPEG – весьма старом, надо сказать, существующем аж с 1991 года. Значительно меньшие объемы – в форматах RAW, то есть без сжатия. Такие фотографии (в форматах RAW) имеют более высокое качество и больше возможностей для обработки, чем обычные JPEG-снимки, но и занимают намного больше места (в среднем в 4 – 5 раз, но в зависимости от количества деталей на снимке, размер файла может быть и больше).

Проблемы, возникающие с фотографиями, можно условно разделить на проблемы профессиональных и непрофессиональных фотографов – прежде всего, по объему снимаемого материала (профессионалы снимают на порядки больше непрофессионалов) и по типам используемых камер (профессиональные фотографы используют более дорогое оборудование).

Проблемы непрофессионального фотографа

Фотограф-непрофессионал снимает для себя или для родных и знакомых и не извлекает выгоды из отснятого материала. Поэтому обычно он снимает на мобильный телефон, реже – на зеркалку начального уровня или беззеркальный цифровой фотоаппарат. Подавляющее большинство фотографов-непрофессионалов использует карты памяти стандарта SD (в основном – microSD), и в этом кроется первая проблема. Эти карты не особенно долговечны, особенно – microSD. Выход их из строя – весьма обычное явление, к нам постоянно обращаются владельцы карт microSD с одной и той же проблемой: карта перестала определяться. Восстановление данных с карт памяти этого типа имеет свои особенности, одна из которых – дороговизна. Дело в том, что эти карты памяти выполнены в монолитном исполнении, то есть все микросхемы разведены на кристалле, который залит в компаунд. Для того, чтобы выполнить чтение данных из NAND-микросхемы такой карты, требуется подключение к технологическим контактам на плате карточки, для чего с нее снимается лак; однако расположение этих контактов далеко не всегда известно, поэтому часто требует серьезных исследований (с помощью цифрового анализатора и осциллографа определяется, какие контакты за что отвечают). В общем, если у вас вышла из строя карточка microSD, и снимки с нее вам нужно вернуть – знайте, что это будет стоить недешево. Поэтому я дам простой совет, как этого избежать: раз в 1 – 1.5 года заменяйте карту памяти в своем телефоне. Стоимость карты несопоставима со стоимостью восстановления данных. И второй совет: используйте только карты памяти известных брендов, не покупайте малоизвестный китайский ширпотреб. Выгода составит не больше 2 – 3 долларов, а вот за надежность неизвестных брендов не поручится никто и никогда (кроме продавца, конечно).

Вторая проблема фотографа-непрофессионала – хранение фотографий. Как правило весь фотоархив находится в одном (и единственном) месте – на компьютере его хозяина. И любые неприятности с этим компьютером могут привести к потере фотоархива. Что бывает чаще всего? Случайное форматирование диска или удаление папки с файлами. Довольно часто – заражение вирусом-шифровальщиком и потеря всех данных (включая фотоархив). Реже – случайная переустановка системы на диске, где хранился архив. Еще реже – физические проблемы с диском (выход его из строя). Что можно посоветовать во избежание таких проблем? Самый простой и очевидный совет – резервное копирование. Необходимо приобрести внешний жесткий диск и периодически копировать на него ваши фотографии с основного устройства хранения.

Правда, при организации резервного копирования многие пользователи совершают одну и ту же ошибку: они решают, что одной копии на внешнем диске вполне достаточно, и не оставляют файлов на диске компьютера / ноутбука. То есть переносят весь архив на внешний диск, а место на компьютере используется под фильмы, музыку, игры и другие, в общем-то, не имеющие критической важности, файлы. При этом внешний жесткий диск – это ведь тоже не место абсолютной надежности хранения данных, он также может выйти из строя. В целом, хочется сказать, что резервное копирование – это именно резервное, а не просто копирование, и подразумевает, что где-то есть основная (мастер) копия данных.

Таким образом, главные угрозы для фотографий фотографа-непрофессионала – выход из строя карты памяти и случайная потеря фотоархива (включая вирусное заражение).

Проблемы профессионального фотографа

Профессионального фотографа от непрофессионала отличают прежде всего используемое оборудование, объемы снимаемого материала и то, что из этого занятия фотограф извлекает прибыль. Именно поэтому он обычно использует достаточно дорогие фотокамеры профессионального и полупрофессионального уровня, дорогую оптику (объективы) и массу различных приспособлений (штативы, осветители, фотоэкспоноиетры и т.п.). Карты памяти профессионального фотографа также обычно относятся к верхнему или среднему ценовому сегменту (высокая производительность). Однако проблемы фотографа-профессионала во многом схожи с проблемами непрофессионального фотографа.

Первая проблема – внезапный выход из строя карты памяти. Это случается обычно либо во время съемок, либо во время копирования содержимого карты на компьютер. В первом случае основная причина выхода карты из строя – удаление данных с карты средствами фотоаппарата (как правило, удаляются не понравившиеся или не получившиеся снимки) и последующая съемка. Фотоаппарат – не компьютер, и не может рационально использовать образовавшиеся «дырки» в файловом поле после удаления фотографий. Рано или поздно происходит съемка слишком большого файла, который не влезает в такую «дырку», и система трансляции карты «сходит с ума». После этого карта либо просит отформатироваться (это, надо отметить, легкий случай), либо полностью перестает работать (определяется в системе с объемом 0 байт). Во втором случае (при копировании данных) карты выходят из строя при неправильном извлечении из компьютера или при спешке при их установке в кард-ридер. Карта памяти при этом испытывает небольшой электрический шок; после такого выхода из строя восстановление данных возможно в основном только выпаиванием NAND-микросхем и их прямым чтением. Тут всего один совет: при работе с картами памяти будьте предельно внимательны, не торопитесь. И время от времени заменяйте карты памяти на новые, ведь при интенсивном использовании они интенсивно изнашиваются.

Вторая проблема – потеря данных с носителей (форматирование, удаление). Как правило, происходит случайно – время от времени фотограф-профессионал удаляет уже отработанный материал (который был передан клиенту), ну а вместе с ним случайно удаляются и нужные на текущий момент данные. Точно также происходит потеря данных во время съемки: случайное форматирование карты памяти в фотоаппарате при путанице с картами (карту с только что отснятым материалом устанавливают в камеру, видят, что она полная, и не задумываясь, форматируют, после чего либо сразу же замечают это, либо продолжают снимать на ту же карту, затирая уже отснятый ранее материал). Совет в данной ситуации такой же, как в первом случае: внимательно следите за тем, что вы делаете. Старайтесь не допускать роковых ошибок. Если же заметили, что снимаете на ту же карту, что и раньше – извлекайте ее из устройства, ставьте новую (чистую) карту, и продолжайте снимать; с карты, которая не была полностью заполнена, еще можно восстановить как минимум часть фотографий, а если вы ее отснимете полностью, то и восстановить будет ничего нельзя.

Третья проблема сродни второй: потеря всего фотоархива или его части по причине выхода из строя устройств хранения или атаки вируса-шифровальщика. Не секрет, что профессиональные фотографы хранят свои наиболее удачные работы, со временем их накапливается немало. Для их хранения используются большие жесткие диски или сетевые хранилища; пользователи Apple-устройств часто работают с Thunderbolt—RAID-массивами производства LaCie. Выход из строя такого устройства приводит к потере огромного массива фотографий. В нашей практике были восстановления фотоархивов объемом 20, 36, 48 Тбайт. Заражения этих массивов, если они находятся в одной сети с главным компьютером, также довольно часты. Избежать потерь такого рода можно, только настроив резервное копирование фотоархива на устройствах, не имеющих постоянного контакта с мастер-копией и мастер-компьютером.

Итак, какие проблемы преследуют профессионального фотографа? Неприятности с картами памяти, потеря данных с отдельных (как правило, свежих) съемок по неосторожности и потеря всего фотоархива.

Резервное копирование – ключ к безопасности

Как я писал выше, только резервное копирование данных дает 100-процентную гарантию сохранности данных. Многие, правда, под резервным копированием понимают не совсем то, что вкладывается в этот термин: делается копия данных на внешний диск, а основная (мастер) копия данных удалятся. Это не резервное копирование, это просто перемещение данных для хранения на другой носитель! Резервное копирование подразумевает наличие основной (мастер) и резервной копии данных. При потере любой из них вторая копия остается и может быть использована.

Восстановление фотографий

Конечно, даже при организации резервного копирования, потери данных все еще остаются возможными, особенно это касается профессиональных фотографов, которые ежедневно снимают много материала. Поэтому время от времени как перед профессионалами, так и перед непрофессионалами от фотографии возникает задача восстановить утерянные снимки.

Делать это самостоятельно возможно, но при соблюдении двух условий. Вот они:

1) Устройство, на котором утеряны фотографии, должно быть абсолютно исправно. Если есть сомнения в его исправности, то лучше обратиться к профессионалам, так как, «добив» устройство попытками восстановления фото, вы не только уменьшаете шансы на успешный исход, но и увеличиваете стоимость восстановления.

2) Любое восстановление данных должно производиться на физически другой носитель. Это очень важно! Если вы будете восстанавливать файлы на тот же носитель, вы перепишете большую их часть; после этого восстановление данных будет уже невозможно даже для профессионала.

Если же устройство не является исправным, или вы не уверены в том, что можете самостоятельно сделать восстановление данных безопасно, лучше обратиться к профессионалам. Наш опыт, который составляет на текущий момент более 25 лет, а также наше техническое оснащение позволяет нам решать любые задачи восстановления данных.

Станислав К. Корб ©2019

Western Digital разрабатывает жесткие диски с двойным актуатором

В прошлом году корпорация Seagate анонсировала революционную технологию: внутри одного гермоблока предлагается независимо работать двум разным комплектам головок (двухактуаторный БМГ) (мы писали об этом). Теоретически это должно снизить энергопотребление при сравнении с одноактуаторными моделями такого же объема, но основная причина разработки таких моделей не в энергоэффективности, а в производительности. Жесткие диски уже давно сильно уступают твердотельным по этому параметру, и массовое распространение SSD до настоящего времени сдерживала только их относительно высокая стоимость. Однако ценовой барьер постепенно тает, и в скором времени может оказаться так, что жесткие диски при сравнении с твердотельными будут как черепаха и ахал-текинский скакун.

Использование двойного актуатора теоретически дает двойной прирост производительности, так как внутри одного и того же гермоблока начинают работать два физически разных комплекта головок. Разработчики обещают увеличить производительность дисковой подсистемы, кроме теоретических 100%, еще как минимум на 50% за счет организации внутри такого гермоблока (по сути, это два разных жестких диска в одной банке) RAID-массива уровня 0 (страйп). Логично заключить, что такой сумасшедший прирост производительности моментально делает жесткие диски нового поколения весьма конкурентоспособными при сравнении с твердотельными дисками даже среднего сегмента, ведь сейчас производительность дисковой подсистемы упирается не в производительность самого устройства, а в производительность интерфейса. Именно поэтому разрабатываются и внедряются новые скоростные интерфейсы, такие как SD Express, USB 3.2, NMVe и т.п. Но вдохнуть «новую жизнь» в старый добрый SATA без радикального увеличения производительности SATA-устройств невозможно.

Именно эту задачу и решает двойной актуатор.

Естественно, основной конкурент корпорации Seagate – Western Digital – никак не мог оставаться в стороне и смотреть, как Seagate отъедает солидную часть рынка жестких дисков. Вообще, эти два гиганта цифровых устройств хранения информации идут в ногу достаточно синхронно и делят рынок почти пополам. Оба почти одновременно начали делать жесткие диски форм-фактора 2,5 дюйма толщиной 5 и 7 мм; оба почти одновременно начали выпускать гибридные накопители SSHD и вести разработки (а затем и выпускать) твердотельные диски; с завидным постоянством оба производителя анонсируют и выпускают рекордсменов емкости (сначала 8 Тб, потом 12, теперь 16 и идет разговор о 20); и так далее.

И вот Western Digital анонсирует, что разработки дисков с двойным набором головок идут полным ходом. Эта информация появилась недавно на сайте ANANDTECH. Не буду утомлять вас описанием самой технологии – она ничем не отличается от уже анонсированной корпорацией Seagate технологии Mach2. Остановлюсь лишь коротко на том, чем нам эта технология «грозит».

Итак, первый плюс от ее внедрения – это заметный прирост производительности дисковой подсистемы, которая, теоретически, должна заработать с такой же скоростью, как SSD среднего уровня. Это раскрывает новые горизонты для геймеров, видеоредакторов и других пользователей ПК, работающих с большими объемами информации. Второй плюс также очевиден – намного большая емкость устройства при относительно невысокой (относительно твердотельного диска) цене. Ну и третий плюс – это несколько более низкое энергопотребление. Разработчики что Seagate, что WD обещают снизить энергопотребление двухактуаторных дисков примерно на 25 – 30 %. В пределах одного компьютера это немного, но в пределах глобального энергопотребления – немало.

Собственно, плюсы на этом заканчиваются, и начинаются минусы.

Первый и самый главный минус – эти устройства будут статистически менее надежны, чем одноактуаторные диски, а с реализацией страйп-архитектуры надежность уменьшается еще больше. Уменьшение надежности объясняется простой механикой и элементарной логикой: чем больше в устройстве движущихся частей, тем больше вероятность выхода из строя любой из них.

Из первого минуса вытекает второй: в случае выхода из строя такого диска восстановить с него данные будет намного сложнее, особенно – при использовании технологии страйпирования. Почему? Причины просты. Во-первых, работа двойного актуатора означает совершенно иную физику (и прежде всего – аэродинамику) внутри гермозоны, а значит, более тонкую работу микропрограммы и более тонкие настройки головок. Во-вторых, если используется страйпирование, для восстановления данных будет необходимо получить содержимое каждой пластины; пропуск одной будет означать невосполнимые для большинства файлов потери, а значит – невозможность восстановления данных. Таким образом, диски с физически поврежденными поверхностями (запилы, царапины) автоматически попадают в категорию «восстановление данных невозможно или возможно с очень небольшим процентом выхода годного» даже если повреждена только одна поверхность из всех. Такое невозможно для подавляющего большинства одноактуаторных дисков: даже при повреждении одной (или в некоторых случаях больше) поверхностей восстановление значительной части данных все еще остается возможным.

Третий минус также очевиден, как первые два: для обеспечения надежности хранения информации ее дублирование (не резервное копирование, а именно дублирование) становится одной из первостепенных задач построения систем, в которых будут работать двухактуторные диски. А это, как ни печально, убьет одно из перечисленных выше преимуществ, а именно – относительно низкую стоимость и относительно высокую энергоэффективность.

Таким образом, пока что, в чистой теории, я могу характеризовать двухактуаторные диски как кота в мешке: при очевидных плюсах имеются весьма существенные минусы, которые лично меня отвратят от покупки такого устройства как минимум в первые годы его промышленной реализации. Однако если производители реализуют двухактуаторные модели с единственной головкой на кронштейне (то есть одна пластина, две покерхности, с каждой из которых работает независимая головка) – такой диск я бы купил не задумываясь, так как использование его в качестве системного заметно ускорит работу дисковой подсистемы компьютера.

Станислав К. Корб ©2019

Seagate Challenge. Восстановление данных с диска Seagate с утерянной ПЗУ

Настоящим испытанием наших возможностей стал поступивший несколько дней назад заказ. Жесткий диск Seagate Momentus Thin из залитого колой ноутбука. Диску хорошо досталось: плата электроники полностью мертва, включая микросхему ПЗУ. Электрический шок. Для накопителей Seagate, начиная с поколения Barracuda 7200.11, это критично: содержимое ПЗУ уникально, без него даже с диска с исправными головками данные извлечь нельзя. Уникальность содержимому ПЗУ придают четыре блока адаптивных параметров, без использования которых головки не смогут найти серворазметку и выйти на нормальную работу. Если у диска нет адаптивов, он просто стучит в безуспешных попытках найти сервометки, и через какое-то время паркует головки и останавливает вращение шпинделя.

Этот заказ был именно таким. Содержимое ПЗУ утеряно. Вместе с диском прибыло 4 платы электроники от аналогичных дисков – владелец устройства пытался запустить диск, используя другую плату. Конечно же, это не помогло: в других платах – другие ПЗУ и другие адаптивные блоки. При установке этих плат на диск максимум, что он получил – это недолгая «работа» диска со стуком. Да, не самый приятный результат…

Восстановление данных с диска Seagate с утерянным ПЗУ возможно, хотя и дорого. С такой задачей в мире могут справиться очень немногие компании. К счастью, мы входим в их число: наши партнеры – одни из самых больших в своем сегменте компаний, имеющие доступ к базе заводских прошивок ПЗУ накопителей Seagate. Конечно, их помощь совсем не бесплатна, однако у подавляющего большинства фирм, занимающихся восстановлением данных, таких возможностей нет.

По нашему запросу и согласованию с заказчиком содержимое ПЗУ неисправного диска было куплено; к счастью, гермоблок и головки не пострадали, и после прошивки исправной платы полученной ПЗУ диск запустился и отдал данные.

Станислав К. Корб ©2019



Мы принимаем к оплате | We accept payments


Мы стажировались и работали в странах | We worked or practiced in following countries