клонирование hdd

stmc
вообще думаю бросить данную затею и все переставить, ибо сомневаюсь в том, что оно потом заведется, да и копирование остальных 100gb очень затянулось, уже 10 часов прошло
А не проще сделать так, как я посоветовал? 0_о
GitHub, ArchWiki, AUR
Перенести систему на новый винт?
Вот как делал я аналогичное, только вместо отдельного винта были другие разделы того же. Я думаю такое решение Вам подойдет.

P.S.: Конкретно как переносил вот в этом посте. И всё у меня завелось, только копировать надо с сохранением атрибутов файлов cp -ra
Да пребудет с нами Сила...!
CPU Intel Core i9 10900-KF/RAM DDR4 128 Gb/NVidia GForce GTX 1080 Ti Turbo 11Gb/SSD M2 512 Gb/HDD Seagate SATA3 2 Tb/HDD Toshiba 3Tb/HDD Toshiba 6Tb
http://rusrailsim.org
Kycok
stmc
вообще думаю бросить данную затею и все переставить, ибо сомневаюсь в том, что оно потом заведется, да и копирование остальных 100gb очень затянулось, уже 10 часов прошло
А не проще сделать так, как я посоветовал? 0_о
я запустил dd и хочу увидеть результат, так сказать проверить в боевых условиях
мне просто интересно выдаст ли оно тот результат, который требуется, чтобы в будущем, если время выполнения не важно, можно было бы просто дать команду и получить готовый результат ничего больше не делая

на винте не только арч, там еще винда и мак, арч я бы сразу перенес по вашему совету, тут просто лень все остальное разгребать

p/s все еще копируется кстати…
stmc
в общем есть винт на 160gb, на котором стоит система и загрузчик, и винт на 500gb
мне нужно полностью скопировать содержимое 160gb на 500gb, чтобы ничего не переустанавливать

насколько знаю это можно сделать командой
dd if=/dev/sda of=/dev/sdb
остается вопрос, что будет с оставшимся пространством в 340gb?

Много раз так делал,
после dd нужно gparted-ом расширить раздел на остальные 340Гб
Зачем копать канаву вручную лопатами, если имеется экскаватор.
Ошибки не исчезают с опытом - они просто умнеют
vasek
Зачем копать канаву вручную лопатами, если имеется экскаватор.
Это dd, что ли, экскаватор? Смешно, да. Мало того, что при переносе данных будут скопированы не только сами данные, но и всё свободное пространство (посекторно!), так ещё и после работы этого "экскаватора" приходится потом долго лопатой исправлять последствия его работы. Кто-нибудь пытался расширить с помощью gparted раздел с данными, занимающими 100-200 Гб? О-о-о-очень увлекательное занятие, когда gparted проверяет эти данные до изменения размера раздела, во время и после изменения. Вот и получается, что сперва убиваем время с помощью dd, когда переносим пустые секторы, потом убиваем время с помощью gparted, когда пытаемся (именно пытаемся, поскольку результат негарантирован!) расширить размеры разделов. За это время люди, воспользовавшиеся rsync и установившие загрузчик с LiveCD, уже успеют просмотреть парочку фильмов, поужинать с семьёй и прочитать половину какой-нибудь книги.
dd, конечно, хорош, но для других задач, когда требуется именно посекторное копирование данных (для последующего их восстановления, например). А для того, что хочет ТС, куда эффективнее использовать rsync или вообще cp с опциями сохранения прав.
maisvendoo, спасибо за описание, сохранил себе в закладках))
GitHub, ArchWiki, AUR
konstantinov-ms
vasek
Зачем копать канаву вручную лопатами, если имеется экскаватор.
Это dd, что ли, экскаватор?
В данном случае под копанием вручную лопатой - я имел ввиду dd, а под экскаватором я подразумеваю современное программное обеспечение, разработанное специально для таких ситуаций.
dd конечно хорош, но нужно знать меру, где его можно применять, а где нет. На подходе диски на сотни террабайт, а Вы хотите по прежнему применять dd. Прогресс на месте не стоит.
Ошибки не исчезают с опытом - они просто умнеют
vasek
под копанием вручную лопатой - я имел ввиду dd
dd конечно хорош, но нужно знать меру, где его можно применять, а где нет.

В таком случае согласен.

vasek
а под экскаватором я подразумеваю современное программное обеспечение, разработанное специально для таких ситуаций.
vasek
Я постоянно делаю образ системы перед серъезными обновлениями.

Перечисленные Вами утилиты используются в LiveCD? И не надоедает перезагружаться перед каждым обновлением (а в случае обновления ядра — ещё и после)? Почему бы не использоваться rsync по крону еженощно?

vasek
На подходе диски на сотни террабайт, а Вы хотите по прежнему применять dd

Я не хочу. Сам отказался от использования dd в описанных ТС случаях давно и бесповоротно.
konstantinov-ms
Перечисленные Вами утилиты используются в LiveCD? И не надоедает перезагружаться перед каждым обновлением (а в случае обновления ядра — ещё и после)? Почему бы не использоваться rsync по крону еженощно?
1. Делаю образ Arch редко - только перед проблемными обновлениями или в случае экспериментов с системой - делать еженошно не вижу смысла.
2. Утилиты применяю по одной причине - на одном из ноутов установлено несколько операционок, с разными файловыми системами.
3. А делать образ системы на этапе ее освоения вообще считаю полезным. Если бы большинство новичков, осваивающих Linux (да в принципе любую систему), делали бы это - вопросов, что у них не грузится система, было бы намного меньше.

PS..................к rsync присматриваюсь давно, но ни как не решусь. У него имеется имеется один хороший плюс - пишет только то, что изменилось. А минус в том, что он больше годится, как я считаю, только для бэкапа данных, но ни как системы. В случае необходимости развернуть данную систему на другом диске все таки лучше использовать другие утилиты. Но, возможно, я и не прав. Это меня и сдерживает. Просто нужно будет как-нибудь поэкспериментировать.
Ошибки не исчезают с опытом - они просто умнеют
 
Зарегистрироваться или войдите чтобы оставить сообщение.