SSD. Время перемен. Часть 2. Модернизируем ноутбук

В первой части этой статьи мы поговорили о том, какими положительными и отрицательными качествами обладают твердотельные диски, и пришли к выводу, что эти диски, не смотря на все еще относительно высокую цену, являются достойной заменой жестким дискам.

Во второй части этой статьи мы предлагаем конкретные примеры модернизации компьютеров с использованием SSD. Это наш личный опыт, поэтому рекомендации не являются голым теоретизированием, а подкреплены практикой.

Итак, поехали.

Lenovo B570e

Ноутбук, скажем так, далеко не первой свежести. Исходная конфигурация: HDD 1 TB Hitachi, ОЗУ 2 Гбайт DDR3, процессор Core i3-2350M 2,3 GHz; видеоподсистема представлена двумя графическими ядрами: встроенное в чипсет Intel HM65, а также «внешняя» видеокарта NVidia N12M (1 Гбайт памяти). Возраст устройства: около 10 лет.

Как мы можем видеть из приведенной конфигурации, у этого мобильного компьютера имеется три слабых места: процессор, ОЗУ и жесткий диск. Предустановленная операционная система (Windows 7 Home) в оригинальной конфигурации загружается 44 секунды. Для открытия ресурсоемкого приложения Adobe Photoshop CC требуется 32 секунды. Компьютер можно охарактеризовать одним словом: тормоз.

Lenovo B570E: заменяемые узлы

C учетом того, что материнская плата ноутбука не поддерживает процессоры старше Core i5-2520, не сильно отличающийся от установленного Core i3-2350 (фактически отличия лишь в том, что процессор пятого поколения может быть сильнее разогнан, чем процессор третьего; ну и, естественно, другой производственный процесс), модернизировать процессор не требуется.

Таким образом, требуется замена жесткого диска на твердотельный и наращивание ОЗУ. Владелец ноутбука очень требователен к количеству свободного места на своих дисках — твердотельный диск необходимой емкости превышает по стоимости сам ноутбук, поэтому в дисковую подсистему было принято решение добавить дополнительный жесткий диск, подключенный вместо оптического привода.

Модули памяти для ноутбука Lenovo B570e, общий объем 16 Гбайт

Итак, что у нас получилось. Вместо модуля памяти SODIMM DDR3 2 GB было установлено 2 модуля памяти SODIMM DDR3 8 GB, суммарный объем ОЗУ увеличен с 2 Гбайт до 16. Стоимость двух модулей памяти составила 60 долларов США.

Вместо жесткого диска HDD Hitachi 1 TB был установлен SSD ADATA SU-800 емкостью 512 Гбайт; вместо оптиеского привода был установлен second caddy, в который смонтирован жесткий диск Seagate Mobile HDD емкостью 2 Тбайт. Суммарная емкость дисковой подсистемы увеличена с 1 Тбайт до 2,5 Тбайт. Стоимость составила: SSD — 65 долларов США, second caddy — 9 долларов США, HDD — 80 долларов США. Итоговая сумма, потребовавшаяся на модернизацию устройства: 214 долларов США.

Second caddy и диск Seagate Mobile HDD 2 TB, установленные в ноутбук Lenovo B570e.

Довольно солидная сумма, но то мы в итоге получили?

Загрузка операционной системы Windows 7 Home: 5 секунд (против 44 в исходной конфигурации). Загрузка ПО Adobe Photoshop CC: 3 секунды (против 32 в исходной конфигурации). Прирост производительности, как мы видим, примерно в 10 (ДЕСЯТЬ!!!) раз.

Стоит ли такой прирост производительности этих расходов? Бесспорно. Работа без тормозов на этом ноутбуке теперь совершенно точно обеспечена.

HP Pavilion 15-e057sr

Также, как и предыдущий пример — довольно старый ноутбук, произведен в 2015 году. Конфигурация несколько лучше, чем у предыдущего: HDD 1 TB Samsung, ОЗУ 6 Гбайт DDR3, процессор Core i5-3230M 2,6 GHz; видеоподсистема представлена двумя графическими ядрами: встроенное в чипсет Intel HM76, а также «внешняя» видеокарта AMD Radeon HD 8670M (1 Гбайт памяти).

Очевидно, что с процессором в данном устройстве пока еще все более-менее хорошо; объем ОЗУ также вполне удовлетворительный. Однако скорость загрузки операционной системы (Windows 8.1 x64 Professional) составляет 29 секунд, а скорость запуска приложения Adobe Photoshop CC — 20 секунд. Результаты намного лучше, чем в исходной конфигурации предыдущего устройства, однако, как мы понимаем, могут быть заметно улучшены.

Модернизируемые узлы ноутбука HP Pavilion 15-e57sr

Принято решение модернизировать объем ОЗУ (в этом ноутбуке ОЗУ организовано в виде двух слотов SODIMM DDR3; в заводской конфигурации поставляется с двумя предустановленными планками SODIMM: 4 GB и 2 GB). Вместо планки на 2 Гбайт мы установим планку 4 Гбайт. Большого прироста производительности это не даст, но все же…

Жесткий диск будет меняться на SSD Samsung 850 EVO емкостью 256 Гбайт. Для устройства не требуется большой объем дискового пространства, поэтому данный объем является оптимальным и для функционирования операционной системы и установленных приложений, и для хранения некоторого объема необходимых данных (после установки ОС и ПО на диске остается не менее 150 Гбайт свободного места, которое можно использовать).

Модули SODIMM DDR3 для ноутбука HP Pavilion 15-e057sr

Итоговая сумма за модернизацию: SODIMM DDR3 4 GB — 30 долларов США, SSD — 70 долларов США; вся модернизация обошлась в 100 долларов США. Насколько мы выиграли при этом в производительности?

Загрузка операционной системы — 5 секунд. Загрузка ПО Adobe Photoshop CC — 3 секунды. Среднее увеличение производительности относительно исходной конфигурации минимум в 5 раз — солидный показатель, не так ли? За 100 долларов США получить компьютер в 5 раз быстрее старого — это более чем приятно.

Выводы

Очевидно, что самый главный вывод из этого материала будет очень простым: замена НЖМД на SSD в мобильном компьютере приводит к увеличению его производительности в разы, а если заменить не только жесткий диск, но еще и нарастить ОЗУ, то производительность может увеличиться на порядок.

Очевидно, что такой прирост производительности стоит всех вложенных в него денег до последнего цента.

Второй вывод: настало время для модернизаций. Стоимость SSD заметно снизилась, и теперь ваше до этого довольно медлительное устройство на жестком диске может обрести высокую скорость работы, при этом объем инвестиций не будет критически большим.

Рекомендации

Для того, чтобы провести модернизацию вашего ноутбука, вам нужно знать его характеристики: какой тип накопителя в нем установлен, поддерживает ли BIOS компьютера интерфейс AHCI (одна из важнейших характеристик интерфейса AHCI — MultiQueue, или многопоточная очередь задач, позволяющая использовать SSD в несколько потоков — за счет чего, собственно, и увеличивается производительность), какая в нем стоит ОЗУ, и пр. Если вы не уверены в том, что обладаете корректной информацией — вы всегда можете уточнить ее на сайте производителя или позвонить нам для бесплатной консультации.

Как вы уже поняли, для того, чтобы SSD функционировал на полную мощность, AHCI должен быть включен. Это легко можно сделать в BIOS устройства.

Наконец, последняя рекомендация. Если вы держите на своем ноутбуке важную информацию, приобретите внешний накопитель для резервного копирования или настройте облако (с теми же целями). А в идеале пусть у вас будет и то, и другое.

Следите за новостями — скоро будет опубликована третья часть этой статьи, в которой мы расскажем о том, как модернизировать настольный компьютер.

Поделитесь и поставьте лайк, если Вам понравилось:

Windows 10Х: новая операционная система от Microsoft

2 октября 2019 года корпорация Microsoft анонсировала новую операционную систему — Windows 10X. Предполагается, что новая операционка появится на рынке через год.

Чем Windows 10X отличается от Windows 10 и более ранних версий Windows? Главные отличия — модульная структура операционной системы, полностью переработанное меню «Пуск» и отсутствие традиционных для Windows 10 плиток на рабочем столе.

Модульная структура позволяет легко подключать или отключать необходимые пользователю модули. Например, пользователю не нужен сервер сценариев Microsoft — он может его отключить. Или, наоборот, необходим — тогда его можно подключить. Что это дает? В идеале — кастомизацию операционной системы под каждое устройство. Вы сами настраиваете свою Windows, убирая ненужное и оставляя или подключая только то, что нужно. При этом, естественно, вы увеличиваете производительность машины.

Кнопка «Пуск» — это другое нововведение Windows 10X. Расположение этой кнопки и ее функциональность полностью отличаются от таковых в предыдущих версиях операционной системы. Кнопка находится в нижней части экрана и фактически заменяет традиционную панель задач. Можно сказать, что кнопка «Пуск» и панель задач Windows 10X слиты в единое целое.

Интерфейс Windows 10X. Кредит: https://cdn.vox-cdn.com

Наконец, плиточная структура основного меню, характерная для Windows 8 и Windows 10, в Windows 10X упразднена. Теперь основное меню выполняется в виде иконок, более характерном для мобильных телефонов. В меню можно разместить как иконки приложений, так и иконки наиболее часто используемых документов.

Как обычно, нас больше всего волнует вопрос совместимости.

Первое, и самое главное — эта операционная система заточена под двухдисплейные системы. Однако это не означает, что она не будет работать и на традиционных системах с одним экраном. Таким образом, ОС можно будет установить на любое устройство, в котором будет заявлена его поддержка.

Второе — приложения. Их, как и в случае с Windows 10, можно будет устанавливать как из магазина, так и извне — с установочных дисков или напрямую из интернета, с сайтов разработчиков. Разработчики новой операционной системы обещают поддержку старых 32-битных программ (новая операционная система, очевидно, будет выпускаться исключительно в 64-битном исполнении), которые будут работать в особом программном контейнере.

Ну и третье — драйвера. Очевидно, что для официально совместимых устройств драйвера будут поставляться с самим устройством, либо будут доступны для загрузки на официальном сайте производителя устройства. Что касается устройств, которые не имеют официальной совместимости с Windows 10X, то тут, очевидно, возможно два варианта развития событий. Первый — это выпуск производителем совместимых с Windows 10X драйверов, а второй — это использование драйверов, выпущенных для Windows 10. Как показала практика, в 80% случаев драйвера имеют обратную совместимость, и могут применяться для более новой операционной системы без проблем и ограничений.

Чтож, будем с нетерпением ожидать релиза новой, свежей, и, по обещаниям Microsoft, значительно более шустрой, чем предыдущие, операционной системы.

Поделитесь и поставьте лайк, если Вам понравилось:

Наглядно: чем чреваты сильные удары крышкой ноутбука

Довольно многие владельцы ноутбуков поначалу весьма почтительно обращаются со своими устройствами: аккуратно закрывают крышку, плавно поднимают и также плавно ставят лаптоп на стол, протирают его мягкой тряпочкой или специальной салфеткой, и т.д. Но со временем отношение к устройству меняется, и наступает тот момент, когда владелец уже настолько к нему привык, что начинает обращаться с ним весьма небрежно.

Наиболее часто встречающиеся случаи такой небрежности — захлопывание крышки ноутбука, швыряние ноутбука на мягкие поверхности (например, диван), установка ноутбука на поверхности, перекрывающие вентиляционные отверстия на днище.

Поговорим немного о резком захлопывании крышки лаптопа. Это действие, особенно, если в ноутбуке установлен жесткий диск, потенциально весьма опасно — особенно, если компьютер во время захлопывания работает. Многие устройства такого типа при закрывании уходят в состояние гибернации. Владелец устройства, зная от этом, просто закрывает крышку, уверенный в том, что устройство сразу же заснет. Однако сразу же устройство не засыпает.

Процесс гибернации — довольно сложная последовательность действий, одним из начальных этапов которого является сброс содержимого ОЗУ на диск. Вы, наверно, замечали — когда вы закрываете крышку лаптопа, он отключается не сразу, а еще несколько секунд шумит вентиляторами и шевелит головками жесткого диска. Чем больше у вас было открыто окон, тем дольше будет скидываться содержимое ОЗУ на диск.

Вот тут-то и поджидает тот самый коварный случай. Закрывая крышку ноутбука, вы инициируете начало сбрасывания содержимого оперативной памяти на диск. А если вы хлопаете крышкой, то диск получает ощутимый удар — и при этом он что-то записывает! То есть он получает физический шок во время работы. А это неизбежно означает повреждения внутри гермоблока.

На фото внизу я привожу пример диска, которому хорошо досталось сверху при ударе крышкой ноутбука. Для сравнения — две фотографии аналогичного диска без таких повреждений.

На верхних двух фото — живой и здоровый диск. никаких повреждений. Диск, понятное дело, работает прекрасно.

На нижних двух фото — диск с повреждениями. Удар сверху был настолько сильным, что крышку диска вдавило внутрь. Она начала соприкасаться с крепежной шайбой шпинделя. Это хорошо видно по запилам на крепежной шайбе и крышке диска.

Вы скажете — ну и что? Поверхности-то целые, да и головки тоже.

Если вы действительно так думаете, то ответьте на простой вопрос: а куда в герметически закрытом корпусе девались все эти металлические опилки? Ответ прост: полетели лупить по поверхностям, по головкам. И чем дольше работает диск с такими повреждениями — тем больше достается поверхностям и головкам. Диск сначала начнет тормозить, на нем вдруг появятся дефекты. Ну а потом он просто откажется работать.

Наша рекомендация предельно проста: пользование ноутбуками, оснащенными жесткими дисками, должно быть максимально аккуратным. Старайтесь не подвергать их физическим воздействиям.

Кстати, если очень сильно бить по клавиатуре при наборе текста, можно тоже спровоцировать проблемы с жестким диском. Но такое случается намного реже, чем при сильных хлопках крышкой.

Крышка жесткого диска (вид изнутри), не подвергавшегося удару
Крышка жесткого диска (вид изнутри), подвергавшегося удару
Крепежная шайба пакета магнитных пластин жесткого диска, не подвергавшегося удару
Крепежная шайба пакета магнитных пластин жесткого диска, подвергавшегося удару
Поделитесь и поставьте лайк, если Вам понравилось:

Телефон заблокирован: FRP. Что это такое и как с этим бороться.

Введение

До июня 2014 года украсть телефон на базе ОС Android было гораздо проще, чем сейчас. Хотя и сейчас украсть Android-телефон намного проще, чем iPhone или iPad, но все же… Просто до 2014 года в этой системе не было жесткой и хорошо продуманной системы защиты от несанкционированного использования чужого устройства. Будучи единожды проданным, по сути оно не было привязано к единственному владельцу, как это с самого начала было сделано в iOS. Действительно, политика смены владельца устройства Apple крайне проста: это возможно только в том случае, если владелец устройства сам передаст его вам, при этом удалив на своем устройстве все данные и отвязав его от своего Apple ID. Для Android все было намного проще: завладев аппаратом, можно сделать его сброс на заводские настройки (factory reset), после чего настроить под себя и начать использовать.

Оболочка EMUI, Android 8, аппарат Huawei Honor 7C

Шоколадно, не так ли?

Но в июне 2014 года народу была представлена новая операционка от Android под кодовым названием Lollipop, в которой оказалась реализована система защиты FRP: factory reset protection (защита от сброса до заводских настроек). В чем ее основная суть?

При первоначальной настройке телефона вы привязываете его к какому-либо аккаунту электронной почты – примерно также, как у Apple ID. По умолчанию (и это понятно, ведь андроид – продукт Google) используется почтовый сервис gmail корпорации Google. Если у вас нет аккаунта Google, при первом старте Android-устройства вам будет предложено его создать.

После того, как вы полностью проинициализировали свой телефон, он привязывается к настроенному аккаунту, что называется, намертво. Аккаунт можно изменить, привязав телефон к другому – но это делает настолько мало народа, что этим можно пренебречь.

Итак, вы настроили аккаунт и стали пользоваться аппаратом. И тут – о горе – телефон был утерян или его украли. Как правило, большинство пользователей блокируют экран или пин-кодом, или графическим ключом, или отпечатком пальца. Такую защиту почти невозможно обойти или взломать; нашедшему телефон или злоумышленнику не остается ничего другого, как выполнить factory reset. Что он и делает. И вот тут его поджидает FRP…

После выполнения сброса от пользователя потребуют повторить вход в связанный с телефоном аккаунт Google. Создать новый аккаунт будет невозможно: только вход в уже имеющийся, привязанный к устройству. Если вход выполняется с ошибками или не выполняется, телефон блокируется. В зависимости от производителя, блокировка может иметь разный вид: начиная от невозможности нормального старта аппарата (выход только на консоль восстановления) и заканчивая стартом аппарата, но блокировкой функционирования всех приложений (обычно при попытке тапнуть по приложению, выдается сообщение «Приложение не установлено»). Пользоваться таким устройством невозможно, новые попытки сброса заблокированы. Что-то сделать с телефоном можно лишь в том случае, если удастся отключить или обойти FRP.

Как бороться с FRP

Блокировка FRP. Аппарат Huawei P20 Pro

Итак, телефон заблокирован. Это, кстати, может не обязательно быть следствием злого умысла – скажем, при обновлении Android 8 до Android 9 (оболочка EMUI) вас также вполне могут попросить ввести установочные данные вашего Google-аккаунта. И если вы сделаете это неверно три раза – произойдет блокировка устройства. Поэтому крайне важно точно помнить данные своего аккаунта – при корректном их вводе проблем не возникнет.

Однако если все-таки вы стали «жертвой» FRP (повторюсь – это возможно даже по невнимательности), то методы обхода блокировки существуют, хотя почти все они связаны с новым (последующим) сбросом устройства. Ну а после сброса вам предстоит все-таки ввести корректные данные привязанного аккаунта, иначе все это зря. Либо сброс происходит с предварительной подготовкой – в систему добавляется новый пользователь, установочные данные которого известны, а права достаточны для того, чтобы устройство использовать.

Наиболее распространенный метод обхода блокировки FRP — переход в настройки устройства через Google Maps. Суть методики заключается в том, чтобы методами разрешенных переходов (ведь блокируется не весь телефон, а приложения) попасть в меню настроек аппарата, где либо попытаться ввести установочные данные связанного аккаунта, либо создать новый и привязать устройство к нему. Вариант с новым сбросом устройства в надежде на то, что после него он не попросит ввести данные аккаунта, можете даже не рассматривать: попросит. Часто пользователь просто создает гостевой аккаунт и пользуется устройством с него: мастер-аккаунт при этом остается замороженным, но если пользователю повезло и он смог создать «гостя» с высоким уровнем привилегий, он сможет устанавливать и удалять приложения, совершать звонки, фотографировать и т.п. – то есть делать все то, что может делать и «хозяин». Однако данные хозяина будут недоступны.

Еще один обход блокировки – зайти с компьютера в связанный аккаунт и стереть устройство с отвязкой аккаунта. После этого устройство можно будет сбросить без проблем и привязать на новый аккаунт.

Как видите, в любом случае – потеря данных. И это крайне неприятно.

Восстановление данных с устройств, заблокированных FRP

Даже с заблокированного FRP устройства восстановление данных возможно. Однако не следует путать восстановление данных и возвращение аппарата к жизни: специалист по восстановлению информации не преследует цели отремонтировать или разблокировать ваш телефон, его задача – извлечь с него данные.

Начнем с главного. Восстановить данные с FRP-блокированного телефона можно не со всех моделей. Важным критерием оценки восстановления информации с такого аппарата является наличие root-прошивки: если она есть, то восстановление возможно. Если же нет – то нужно ждать лучших времен, когда она появится. Выше я говорил, что аппарат не даст возможности совершить повторный сброс до заводских настроек, либо (если даст), то при запуске все равно попросит ввести установочные данные первоначального связанного аккаунта. Так как же заставить его принять root-прошивку?

Методики существуют. Самая простая – выход в настройки аппарата и создание нового пользователя, из под которого уже и рутится телефон. Сразу скажу: срабатывает не со всеми аппаратами, однако примерно половину заблокированных FRP устройств можно таким образом разблокировать. Другая половина разблокируется через «жесткий» root – то есть прошивка льется в плату телефона через JTAG или другие (предусмотренные производителем) протокола обмена данными. При этом крайне важно понимать, что как таковой разблокировки устройства не происходит – фактически мы всего лишь получаем доступ к внутренним накопителям телефона, которые можем скопировать к себе на жесткий диск, проанализировать и попытаться вытащить из них данные.

Почему попытаться? Довольно много моделей телефонов, которые продаются в настоящее время, зашифрованы. Это вовсе не обязательно, но встречается часто. Таким образом, даже получив образ аппарата, можно ничего не восстановить, так как данные зашифрованы. Однако и шифрование – еще не приговор. Для некоторых типов шифрования Android уже давно существуют программы – генераторы ключа, если известен пароль (пин-код).

По моему опыту можно сказать, что в случае блокировки FRP успешно восстанавливаются данные примерно с 75% телефонов; не поддаются восстановлению данные только с тех аппаратов, где хозяин не помнит никаких паролей, пин-кодов и прочих сведений, необходимых для расшифровки. Старайтесь не забывать пароли и установочные параметры связанных аккаунтов, и вам, скорее всего, никогда не придется восстанавливать данные с устройства, заблокированного FRP.

Станислав К. Корб ©2019

Поделитесь и поставьте лайк, если Вам понравилось:

Восстановление фотографий в Бишкеке. Восстановление данных в Бишкеке

Эту статью я решил посвятить единственной проблеме: восстановлению цифровых фотографий. И причин тому три: во-первых, огромное количество людей ежедневно теряет свои бесценные снимки; во-вторых, многие потерявшие снимки, начинают восстанавливать их самостоятельно и весьма рискованными методами (часто – с плачевными последствиями); в-третьих, многих проблем с цифровыми снимками можно избежать, следуя простым рекомендациям.

Но – по порядку.

Цифровые фото – это те же файлы, что и любые другие, но их отличает одна особенность: место, откуда они берутся. Это цифровая фотокамера. Камера может быть самостоятельным устройством, а может находится в составе другого (наиболее часто это мобильный телефон, реже – GPS-навигатор или видеорегистратор). Из этого простого правила (источник цифровых снимков – цифровые камеры) следует простой вывод: цифровые фотографии генерируются в количестве, прямо пропорциональном количеству цифровых камер. Другими словами, ежедневно появляется бессчетное число новых цифровых снимков, под которые выделяется место в облачных хранилищах, на жестких дисках и других устройствах хранения информации. Количество такого контента постоянно растет.

До 90% всех фотографий в мире снимается в формате JPEG – весьма старом, надо сказать, существующем аж с 1991 года. Значительно меньшие объемы – в форматах RAW, то есть без сжатия. Такие фотографии (в форматах RAW) имеют более высокое качество и больше возможностей для обработки, чем обычные JPEG-снимки, но и занимают намного больше места (в среднем в 4 – 5 раз, но в зависимости от количества деталей на снимке, размер файла может быть и больше).

Проблемы, возникающие с фотографиями, можно условно разделить на проблемы профессиональных и непрофессиональных фотографов – прежде всего, по объему снимаемого материала (профессионалы снимают на порядки больше непрофессионалов) и по типам используемых камер (профессиональные фотографы используют более дорогое оборудование).

Проблемы непрофессионального фотографа

Фотограф-непрофессионал снимает для себя или для родных и знакомых и не извлекает выгоды из отснятого материала. Поэтому обычно он снимает на мобильный телефон, реже – на зеркалку начального уровня или беззеркальный цифровой фотоаппарат. Подавляющее большинство фотографов-непрофессионалов использует карты памяти стандарта SD (в основном – microSD), и в этом кроется первая проблема. Эти карты не особенно долговечны, особенно – microSD. Выход их из строя – весьма обычное явление, к нам постоянно обращаются владельцы карт microSD с одной и той же проблемой: карта перестала определяться. Восстановление данных с карт памяти этого типа имеет свои особенности, одна из которых – дороговизна. Дело в том, что эти карты памяти выполнены в монолитном исполнении, то есть все микросхемы разведены на кристалле, который залит в компаунд. Для того, чтобы выполнить чтение данных из NAND-микросхемы такой карты, требуется подключение к технологическим контактам на плате карточки, для чего с нее снимается лак; однако расположение этих контактов далеко не всегда известно, поэтому часто требует серьезных исследований (с помощью цифрового анализатора и осциллографа определяется, какие контакты за что отвечают). В общем, если у вас вышла из строя карточка microSD, и снимки с нее вам нужно вернуть – знайте, что это будет стоить недешево. Поэтому я дам простой совет, как этого избежать: раз в 1 – 1.5 года заменяйте карту памяти в своем телефоне. Стоимость карты несопоставима со стоимостью восстановления данных. И второй совет: используйте только карты памяти известных брендов, не покупайте малоизвестный китайский ширпотреб. Выгода составит не больше 2 – 3 долларов, а вот за надежность неизвестных брендов не поручится никто и никогда (кроме продавца, конечно).

Вторая проблема фотографа-непрофессионала – хранение фотографий. Как правило весь фотоархив находится в одном (и единственном) месте – на компьютере его хозяина. И любые неприятности с этим компьютером могут привести к потере фотоархива. Что бывает чаще всего? Случайное форматирование диска или удаление папки с файлами. Довольно часто – заражение вирусом-шифровальщиком и потеря всех данных (включая фотоархив). Реже – случайная переустановка системы на диске, где хранился архив. Еще реже – физические проблемы с диском (выход его из строя). Что можно посоветовать во избежание таких проблем? Самый простой и очевидный совет – резервное копирование. Необходимо приобрести внешний жесткий диск и периодически копировать на него ваши фотографии с основного устройства хранения.

Правда, при организации резервного копирования многие пользователи совершают одну и ту же ошибку: они решают, что одной копии на внешнем диске вполне достаточно, и не оставляют файлов на диске компьютера / ноутбука. То есть переносят весь архив на внешний диск, а место на компьютере используется под фильмы, музыку, игры и другие, в общем-то, не имеющие критической важности, файлы. При этом внешний жесткий диск – это ведь тоже не место абсолютной надежности хранения данных, он также может выйти из строя. В целом, хочется сказать, что резервное копирование – это именно резервное, а не просто копирование, и подразумевает, что где-то есть основная (мастер) копия данных.

Таким образом, главные угрозы для фотографий фотографа-непрофессионала – выход из строя карты памяти и случайная потеря фотоархива (включая вирусное заражение).

Проблемы профессионального фотографа

Профессионального фотографа от непрофессионала отличают прежде всего используемое оборудование, объемы снимаемого материала и то, что из этого занятия фотограф извлекает прибыль. Именно поэтому он обычно использует достаточно дорогие фотокамеры профессионального и полупрофессионального уровня, дорогую оптику (объективы) и массу различных приспособлений (штативы, осветители, фотоэкспоноиетры и т.п.). Карты памяти профессионального фотографа также обычно относятся к верхнему или среднему ценовому сегменту (высокая производительность). Однако проблемы фотографа-профессионала во многом схожи с проблемами непрофессионального фотографа.

Первая проблема – внезапный выход из строя карты памяти. Это случается обычно либо во время съемок, либо во время копирования содержимого карты на компьютер. В первом случае основная причина выхода карты из строя – удаление данных с карты средствами фотоаппарата (как правило, удаляются не понравившиеся или не получившиеся снимки) и последующая съемка. Фотоаппарат – не компьютер, и не может рационально использовать образовавшиеся «дырки» в файловом поле после удаления фотографий. Рано или поздно происходит съемка слишком большого файла, который не влезает в такую «дырку», и система трансляции карты «сходит с ума». После этого карта либо просит отформатироваться (это, надо отметить, легкий случай), либо полностью перестает работать (определяется в системе с объемом 0 байт). Во втором случае (при копировании данных) карты выходят из строя при неправильном извлечении из компьютера или при спешке при их установке в кард-ридер. Карта памяти при этом испытывает небольшой электрический шок; после такого выхода из строя восстановление данных возможно в основном только выпаиванием NAND-микросхем и их прямым чтением. Тут всего один совет: при работе с картами памяти будьте предельно внимательны, не торопитесь. И время от времени заменяйте карты памяти на новые, ведь при интенсивном использовании они интенсивно изнашиваются.

Вторая проблема – потеря данных с носителей (форматирование, удаление). Как правило, происходит случайно – время от времени фотограф-профессионал удаляет уже отработанный материал (который был передан клиенту), ну а вместе с ним случайно удаляются и нужные на текущий момент данные. Точно также происходит потеря данных во время съемки: случайное форматирование карты памяти в фотоаппарате при путанице с картами (карту с только что отснятым материалом устанавливают в камеру, видят, что она полная, и не задумываясь, форматируют, после чего либо сразу же замечают это, либо продолжают снимать на ту же карту, затирая уже отснятый ранее материал). Совет в данной ситуации такой же, как в первом случае: внимательно следите за тем, что вы делаете. Старайтесь не допускать роковых ошибок. Если же заметили, что снимаете на ту же карту, что и раньше – извлекайте ее из устройства, ставьте новую (чистую) карту, и продолжайте снимать; с карты, которая не была полностью заполнена, еще можно восстановить как минимум часть фотографий, а если вы ее отснимете полностью, то и восстановить будет ничего нельзя.

Третья проблема сродни второй: потеря всего фотоархива или его части по причине выхода из строя устройств хранения или атаки вируса-шифровальщика. Не секрет, что профессиональные фотографы хранят свои наиболее удачные работы, со временем их накапливается немало. Для их хранения используются большие жесткие диски или сетевые хранилища; пользователи Apple-устройств часто работают с Thunderbolt—RAID-массивами производства LaCie. Выход из строя такого устройства приводит к потере огромного массива фотографий. В нашей практике были восстановления фотоархивов объемом 20, 36, 48 Тбайт. Заражения этих массивов, если они находятся в одной сети с главным компьютером, также довольно часты. Избежать потерь такого рода можно, только настроив резервное копирование фотоархива на устройствах, не имеющих постоянного контакта с мастер-копией и мастер-компьютером.

Итак, какие проблемы преследуют профессионального фотографа? Неприятности с картами памяти, потеря данных с отдельных (как правило, свежих) съемок по неосторожности и потеря всего фотоархива.

Резервное копирование – ключ к безопасности

Как я писал выше, только резервное копирование данных дает 100-процентную гарантию сохранности данных. Многие, правда, под резервным копированием понимают не совсем то, что вкладывается в этот термин: делается копия данных на внешний диск, а основная (мастер) копия данных удалятся. Это не резервное копирование, это просто перемещение данных для хранения на другой носитель! Резервное копирование подразумевает наличие основной (мастер) и резервной копии данных. При потере любой из них вторая копия остается и может быть использована.

Восстановление фотографий

Конечно, даже при организации резервного копирования, потери данных все еще остаются возможными, особенно это касается профессиональных фотографов, которые ежедневно снимают много материала. Поэтому время от времени как перед профессионалами, так и перед непрофессионалами от фотографии возникает задача восстановить утерянные снимки.

Делать это самостоятельно возможно, но при соблюдении двух условий. Вот они:

1) Устройство, на котором утеряны фотографии, должно быть абсолютно исправно. Если есть сомнения в его исправности, то лучше обратиться к профессионалам, так как, «добив» устройство попытками восстановления фото, вы не только уменьшаете шансы на успешный исход, но и увеличиваете стоимость восстановления.

2) Любое восстановление данных должно производиться на физически другой носитель. Это очень важно! Если вы будете восстанавливать файлы на тот же носитель, вы перепишете большую их часть; после этого восстановление данных будет уже невозможно даже для профессионала.

Если же устройство не является исправным, или вы не уверены в том, что можете самостоятельно сделать восстановление данных безопасно, лучше обратиться к профессионалам. Наш опыт, который составляет на текущий момент более 25 лет, а также наше техническое оснащение позволяет нам решать любые задачи восстановления данных.

Станислав К. Корб ©2019

Поделитесь и поставьте лайк, если Вам понравилось:

Western Digital разрабатывает жесткие диски с двойным актуатором

В прошлом году корпорация Seagate анонсировала революционную технологию: внутри одного гермоблока предлагается независимо работать двум разным комплектам головок (двухактуаторный БМГ) (мы писали об этом). Теоретически это должно снизить энергопотребление при сравнении с одноактуаторными моделями такого же объема, но основная причина разработки таких моделей не в энергоэффективности, а в производительности. Жесткие диски уже давно сильно уступают твердотельным по этому параметру, и массовое распространение SSD до настоящего времени сдерживала только их относительно высокая стоимость. Однако ценовой барьер постепенно тает, и в скором времени может оказаться так, что жесткие диски при сравнении с твердотельными будут как черепаха и ахал-текинский скакун.

Использование двойного актуатора теоретически дает двойной прирост производительности, так как внутри одного и того же гермоблока начинают работать два физически разных комплекта головок. Разработчики обещают увеличить производительность дисковой подсистемы, кроме теоретических 100%, еще как минимум на 50% за счет организации внутри такого гермоблока (по сути, это два разных жестких диска в одной банке) RAID-массива уровня 0 (страйп). Логично заключить, что такой сумасшедший прирост производительности моментально делает жесткие диски нового поколения весьма конкурентоспособными при сравнении с твердотельными дисками даже среднего сегмента, ведь сейчас производительность дисковой подсистемы упирается не в производительность самого устройства, а в производительность интерфейса. Именно поэтому разрабатываются и внедряются новые скоростные интерфейсы, такие как SD Express, USB 3.2, NMVe и т.п. Но вдохнуть «новую жизнь» в старый добрый SATA без радикального увеличения производительности SATA-устройств невозможно.

Именно эту задачу и решает двойной актуатор.

Естественно, основной конкурент корпорации Seagate – Western Digital – никак не мог оставаться в стороне и смотреть, как Seagate отъедает солидную часть рынка жестких дисков. Вообще, эти два гиганта цифровых устройств хранения информации идут в ногу достаточно синхронно и делят рынок почти пополам. Оба почти одновременно начали делать жесткие диски форм-фактора 2,5 дюйма толщиной 5 и 7 мм; оба почти одновременно начали выпускать гибридные накопители SSHD и вести разработки (а затем и выпускать) твердотельные диски; с завидным постоянством оба производителя анонсируют и выпускают рекордсменов емкости (сначала 8 Тб, потом 12, теперь 16 и идет разговор о 20); и так далее.

И вот Western Digital анонсирует, что разработки дисков с двойным набором головок идут полным ходом. Эта информация появилась недавно на сайте ANANDTECH. Не буду утомлять вас описанием самой технологии – она ничем не отличается от уже анонсированной корпорацией Seagate технологии Mach2. Остановлюсь лишь коротко на том, чем нам эта технология «грозит».

Итак, первый плюс от ее внедрения – это заметный прирост производительности дисковой подсистемы, которая, теоретически, должна заработать с такой же скоростью, как SSD среднего уровня. Это раскрывает новые горизонты для геймеров, видеоредакторов и других пользователей ПК, работающих с большими объемами информации. Второй плюс также очевиден – намного большая емкость устройства при относительно невысокой (относительно твердотельного диска) цене. Ну и третий плюс – это несколько более низкое энергопотребление. Разработчики что Seagate, что WD обещают снизить энергопотребление двухактуаторных дисков примерно на 25 – 30 %. В пределах одного компьютера это немного, но в пределах глобального энергопотребления – немало.

Собственно, плюсы на этом заканчиваются, и начинаются минусы.

Первый и самый главный минус – эти устройства будут статистически менее надежны, чем одноактуаторные диски, а с реализацией страйп-архитектуры надежность уменьшается еще больше. Уменьшение надежности объясняется простой механикой и элементарной логикой: чем больше в устройстве движущихся частей, тем больше вероятность выхода из строя любой из них.

Из первого минуса вытекает второй: в случае выхода из строя такого диска восстановить с него данные будет намного сложнее, особенно – при использовании технологии страйпирования. Почему? Причины просты. Во-первых, работа двойного актуатора означает совершенно иную физику (и прежде всего – аэродинамику) внутри гермозоны, а значит, более тонкую работу микропрограммы и более тонкие настройки головок. Во-вторых, если используется страйпирование, для восстановления данных будет необходимо получить содержимое каждой пластины; пропуск одной будет означать невосполнимые для большинства файлов потери, а значит – невозможность восстановления данных. Таким образом, диски с физически поврежденными поверхностями (запилы, царапины) автоматически попадают в категорию «восстановление данных невозможно или возможно с очень небольшим процентом выхода годного» даже если повреждена только одна поверхность из всех. Такое невозможно для подавляющего большинства одноактуаторных дисков: даже при повреждении одной (или в некоторых случаях больше) поверхностей восстановление значительной части данных все еще остается возможным.

Третий минус также очевиден, как первые два: для обеспечения надежности хранения информации ее дублирование (не резервное копирование, а именно дублирование) становится одной из первостепенных задач построения систем, в которых будут работать двухактуторные диски. А это, как ни печально, убьет одно из перечисленных выше преимуществ, а именно – относительно низкую стоимость и относительно высокую энергоэффективность.

Таким образом, пока что, в чистой теории, я могу характеризовать двухактуаторные диски как кота в мешке: при очевидных плюсах имеются весьма существенные минусы, которые лично меня отвратят от покупки такого устройства как минимум в первые годы его промышленной реализации. Однако если производители реализуют двухактуаторные модели с единственной головкой на кронштейне (то есть одна пластина, две покерхности, с каждой из которых работает независимая головка) – такой диск я бы купил не задумываясь, так как использование его в качестве системного заметно ускорит работу дисковой подсистемы компьютера.

Станислав К. Корб ©2019

Поделитесь и поставьте лайк, если Вам понравилось:

Seagate Challenge. Восстановление данных с диска Seagate с утерянной ПЗУ

Настоящим испытанием наших возможностей стал поступивший несколько дней назад заказ. Жесткий диск Seagate Momentus Thin из залитого колой ноутбука. Диску хорошо досталось: плата электроники полностью мертва, включая микросхему ПЗУ. Электрический шок. Для накопителей Seagate, начиная с поколения Barracuda 7200.11, это критично: содержимое ПЗУ уникально, без него даже с диска с исправными головками данные извлечь нельзя. Уникальность содержимому ПЗУ придают четыре блока адаптивных параметров, без использования которых головки не смогут найти серворазметку и выйти на нормальную работу. Если у диска нет адаптивов, он просто стучит в безуспешных попытках найти сервометки, и через какое-то время паркует головки и останавливает вращение шпинделя.

Этот заказ был именно таким. Содержимое ПЗУ утеряно. Вместе с диском прибыло 4 платы электроники от аналогичных дисков – владелец устройства пытался запустить диск, используя другую плату. Конечно же, это не помогло: в других платах – другие ПЗУ и другие адаптивные блоки. При установке этих плат на диск максимум, что он получил – это недолгая «работа» диска со стуком. Да, не самый приятный результат…

Восстановление данных с диска Seagate с утерянным ПЗУ возможно, хотя и дорого. С такой задачей в мире могут справиться очень немногие компании. К счастью, мы входим в их число: наши партнеры – одни из самых больших в своем сегменте компаний, имеющие доступ к базе заводских прошивок ПЗУ накопителей Seagate. Конечно, их помощь совсем не бесплатна, однако у подавляющего большинства фирм, занимающихся восстановлением данных, таких возможностей нет.

По нашему запросу и согласованию с заказчиком содержимое ПЗУ неисправного диска было куплено; к счастью, гермоблок и головки не пострадали, и после прошивки исправной платы полученной ПЗУ диск запустился и отдал данные.

Станислав К. Корб ©2019

Поделитесь и поставьте лайк, если Вам понравилось:

SD Express, microSD Express — новая жизнь SD карт

24 февраля 2019 г. на youtube-канале SD Card Association было опубликовано весьма примечательное видео, анонсирующее новое поколение SD и microSD карт: SD Express, microSD Express. Эта видеопрезентация была приурочена к недавно проходившей выставке MWC 2019 (Mobile World Conference), на которой, собственно, и были анонсированы новые карты памяти. Собственно, новости о новом стандарте карт памяти типа SD появлялись и раньше, с мая 2018 г., но это были предварительные данные, а текущая новость – это уже практически реальность.

Итак, что такое SD Express и microSD Express? Прежде всего – скорость. Заявленная разработчиками нового стандарта скорость передачи данных составляет до 985 МБ/с. Как утверждается в ролике, теперь для SD-устройств доступна скорость SSD. Чтож, это близко к правде…

Основная особенность нового стандарта – это используемые интерфейсы, с помощью которых, собственно, и достигается высокая скорость. Это PCI Express (PCIe) и NVM Express (NVMe). Для новых карт, естественно, будет обеспечиваться обратная совместимость с имеющимися SD и microSD-хостами предыдущих поколений, поэтому для того, чтобы использовать такую карту памяти на ее максимальной скорости, нужно будет поискать совместимые с новым стандартом устройства.

Еще одно отличие новых карт памяти – наличие двойного питания; для активации высокоскоростного режима требуется наличие как трехвольтового питания, так и нового, 1.8 вольт. Соответственно, на старых SD-хостах, где имеется только одно питание, эти карты будут работать в медленных, «предыдущих», режимах.

Естественно, основными областями применения карт памяти нового типа называются ресурсоемкие видео (Full HD, Ultra HD и пр.), фотографии 360 градусов и фотографии большого разрешения, стриминг и пр. – производительности этих карт с лихвой хватит на поддержание высококачественного видео в несколько потоков. Разработчики стандарта SD Express и microSD Express утверждают, что их карты памяти по производительности вплотную подходят к твердотельным дискам. Чтож, посмотрим. Судя по всему, производство и продажа этих карт начнутся уже в текущем году – а значит, мы их скоро увидим не только в презентациях.

Станислав К. Корб ©2019

Поделитесь и поставьте лайк, если Вам понравилось:

USB поколение 3: разработчики решили оставить единственный рабочий стандарт – 3.2

Третье поколение интерфейса USB (Universal Serial Bus) – самое «разнообразное» из всех, до него разработанных. Тут вам и исходный стандарт USB 3.0, и последовавший за ним USB 3.0 Generation 1, а затем и Generation 2, и USB 3.1, и, наконец, 3.2. При этом скорость интерфейса последовательно нарастала с 5 до 20 Гбит/с.

Замечу, что и у USB 3.2 не все так просто с версиями: имеются версия USB 3.2 Generation 1, Generation 2 и Generation 2×2. Соответственно, для того, чтобы не путать пользователя, которому по большому счету все эти термины не нужны и только путают, утверждены торговые названия (marketing name) для каждого типа интерфейса: SuperSpeed USB для USB 3.2 Gen 1, SuperSpeed USB 10 Gbps для USB 3.2 Gen 2 и SuperSpeed USB 20 Gbps для USB 3.2 Gen 2×2. Почему так?


Кабель USB 3.2 тип С внешне не отличается от кабеля USB 3.1 тип С. За счет этого обеспечивается обратная совместимость

Дело в том, что USB Implementers Forum (организация, которая занимается стандартизацией и поддержкой интерфейса) на MWC 2019 в Барселоне (MWC – Mobile World Congress, Мировой конгресс Мобильных устройств) решила, что пора привести третье поколение USB к единому знаменателю, и анонсировала, что все стандарты USB третьего поколения будут приведены к единому, последнему. Что это значит?

А значит это следующее. Все, что существовало для третьего поколения USB до настоящего времени, будет стандартизовано под едиными спецификациями. Все разновидности стандартов USB третьего поколения будут «поглощены» спецификацией 3.2 (при этом, вестимо, будет обеспечена обратная совместимость, ведь устройств с интерфейсами USB 3.0 и 3.1 разных поколений выпущено немало). Соответственно, для «медленных» интерфейсов USB 3.0 и USB 3.1 Gen 1 теперь будет существовать только интерфейс USB 3.2 Gen 1 (SuperSpeed USB), для интерфейса USB 3.1 Gen 2 теперь будет существовать только USB 3.2 Gen 2 (SuperSpeed USB 10 Gbps), ну а собственно USB 3.2 остается под названием USB 3.2 Gen 2×2 (SuperSpeed USB 20 Gbps). Запомнили?


Соответствие новых торговых названий интерфейса USB 3.2 старым типам третьего поколения USB 

Вы скажете – а для чего запоминать? Для того, чтобы не купить что-то неподходящее для вашей электроники, конечно. Ведь теперь не будет стандарта USB 3.0, а будет стандарт SuperSpeed USB. И для того, чтобы ваше устройство работало, оно должно быть совместимо с USB 3.0, то есть – SuperSpeed USB. Если в вашем компьютере «старое» гнездо USB 3.0, то воткнув в него устройство USB 3.2, вы точно не получите прироста скорости и производительности. Обратная совместимость, конечно, обеспечена – то есть работать устройства 3.0 на интерфейсе 3.2 будут, но со скоростью 3.0. А зачем платить больше, если можно купить устройство с поддерживаемой скоростью намного дешевле, ведь не секрет, что устройства на интерфейсе USB 3.2 стоят дороже.

Станислав К. Корб ©2019

Поделитесь и поставьте лайк, если Вам понравилось:

Пример фейковой флешки на 32 GB. Восстановление данных в Бишкеке, Кыргызстан

Сегодня поступила в работу довольно любопытная флеш-карта – USB PEN-drive ADATA 32 GB. Устройство примечательно тем, что является практически новым, куплено буквально несколько дней назад, и после записи на него данных перестало работать. В системе флешка определяется как Generic USB Flash Disk USB Device, однако при попытке доступа к устройству его емкость определяется системой как 0 байт.

Пристальное знакомство с устройством показало, что оно является довольно грубой подделкой известного бренда ADATA. Давайте рассмотрим все признаки «фейковости» этой флешки.


Идентификация в системе нашей фейковой флешки

Начнем с внешних признаков. Обратите внимание на качество печати надписей на корпусе флешки. Даже небольшого увеличения достаточно для того, чтобы увидеть, насколько неаккуратно сделаны надписи. Особенное мое внимание привлекло качество печати цифры «0» в названии модели – у нуля явственно виден небольшой «хвостик», который делает его похожим на букву «Q». Я сначала подумал, что это мусор налип, но при увеличении оказалось, что это просто потекла краска при печати надписи.


Внешний вид фейковой флешки, с увеличенными фрагментами надписей

Еще один момент, на который нужно обратить внимание – это качество изготовления черного ободка между корпусом флешки и USB-разъемом. На фотографии отчетливо видно, что он неровный, как будто бы мятый. У оригинальной флешки надписи на корпусе будут выполнены четко и без огрехов, а все пластиковые элементы корпуса будут гладкие и ровные. Заглянем внутрь флешки. Тут все становится еще более очевидно. Во-первых, c NAND-микросхемы стерта маркировка. Соответственно, узнать по маркировке, с каким чипом мы имеем дело, невозможно. Во-вторых, контроллер флешки залит компаундом – соответственно, на каком контроллере построена флешка, визуально мы не узнаем. Ну и в-третьих – качество пайки. Элементы посажены криво, припой нанесен неровно, флюс до конца не смыт – пайка явно не имеет ничего общего с заводской.


NAND-микросхема фейковой флешки. Все маркировки стерты

Контроллер нашей фейковой флешки и общий вид пайки электронных компонентов

Увеличенные изображения, показывающие некачественность пайки электронных компонентов нашей фейковой флешки

Ну и контрольный в голову. На флешке – единственный NAND-чип. Берем его, выпаиваем, ставим в NAND-reader комплекса РС-3000 Flash. Читаем идентификатор микросхемы – это TC58NVG5D2FTA00. Чип емкостью 4 GB. 32 GB тут и не пахнет =).


Идентификация NAND-микросхемы из нашей фейковой флешки с помощью комплекса РС-3000 Flash

Станислав К. Корб ©2019

Источник: Хабр

Поделитесь и поставьте лайк, если Вам понравилось:


Мы принимаем к оплате | We accept payments


Мы стажировались и работали в странах | We worked or practiced in following countries

Facebook560
126
YouTube12
Instagram0