<tt><font size=2> <br>
> I'm facing a weird situation, trying to migrate from one storage <br>
> pool (on VLET1, SWRAID1,SATA) to another (on VLET3, HWRAID1,SAS) <br>
> (all servers VLET1,2,3 on ubuntu 10.10) </font></tt>
<br>
<br><tt><font size=2>->each server has /srv/VMs exported as nfs-pool,
nfs-pool2 and nfs-pool3 respectively</font></tt>
<br><tt><font size=2><br>
> </font></tt>
<br>
<br><tt><font size=2>I run the VM ISPConfigLET2 on VLET1, and live migrate
it to VLET3 (like this, I get the host properly defined on VLET3).  The
disk image, shared with NFS, resides physically on VLET1.</font></tt>
<br><tt><font size=2><br>
> 1. I stop all running VM instances <br>
> 2. On VLET3, I have an NFS share of VLET1 mounted <br>
> 3. On VLET3, I issue: cp /mnt/nfs/ISPConfigLET2.qcow2  /srv/VMs/
<br>
> 4. On VLET3 and VLET1, I virsh edit ISPConfigLET2 to use the newly
created copied /srv/VMs/ISPConfigLET2.qcow2 residing on pool nfs-pool3
<br>
</font></tt>
<br><tt><font size=2>->see XML further down</font></tt>
<br><tt><font size=2>> <br>
</font></tt>
<br><tt><font size=2>The VM refuses to run with the different storage pool
selected: the VM starts on VLET1 (using the image served over nfs from
VLET3), but a boot error comes up</font></tt>
<br><tt><font size=2>> -> it gets mounted read-only apparently; it
doesn't work.  </font></tt>
<br>
<br><tt><font size=2>dmesg:</font></tt>
<br><tt><font size=2>... (many times same error message)</font></tt>
<br><tt><font size=2>[   20.967377] ata1.00: status: { DRDY ERR }</font></tt>
<br><tt><font size=2>[   20.967379] ata1.00: error: { ABRT }</font></tt>
<br><tt><font size=2>[   20.971640] ata1.00: configured for PIO0</font></tt>
<br><tt><font size=2>[   20.971648] sd 0:0:0:0: [sda] Result: hostbyte=DID_OK
driverbyte=DRIVER_SENSE</font></tt>
<br><tt><font size=2>[   20.971651] sd 0:0:0:0: [sda] Sense Key :
Aborted Command [current] [descriptor]</font></tt>
<br><tt><font size=2>[   20.971654] Descriptor sense data with sense
descriptors (in hex):</font></tt>
<br><tt><font size=2>[   20.971656]         72
0b 00 00 00 00 00 0c 00 0a 80 00 00 00 00 00</font></tt>
<br><tt><font size=2>[   20.971661]         02
77 97 3f</font></tt>
<br><tt><font size=2>[   20.971663] sd 0:0:0:0: [sda] Add. Sense:
No additional sense information</font></tt>
<br><tt><font size=2>[   20.971666] sd 0:0:0:0: [sda] CDB: Write(10):
2a 00 02 77 97 3f 00 00 08 00</font></tt>
<br><tt><font size=2>[   20.971672] end_request: I/O error, dev sda,
sector 41391935</font></tt>
<br><tt><font size=2>[   20.971684] ata1: EH complete</font></tt>
<br><tt><font size=2>[   20.971744] JBD: Detected IO errors while
flushing file data on sda1</font></tt>
<br><tt><font size=2>[   20.971761] __journal_remove_journal_head:
freeing b_committed_data</font></tt>
<br><tt><font size=2>[   20.971769] __journal_remove_journal_head:
freeing b_committed_data</font></tt>
<br><tt><font size=2>[   20.971777] __journal_remove_journal_head:
freeing b_committed_data</font></tt>
<br><tt><font size=2>[   20.971798] __journal_remove_journal_head:
freeing b_committed_data</font></tt>
<br><tt><font size=2>[   20.971801] __journal_remove_journal_head:
freeing b_committed_data</font></tt>
<br><tt><font size=2>[   20.971845] journal commit I/O error</font></tt>
<br><tt><font size=2>> When <br>
> using rsync or scp instead of cp, there's no difference...  I
really don't <br>
> understand what's going on...  Who has a clue please?? </font></tt>
<br>
<br><tt><font size=2>When trying to start the VM on VLET3, the VM hangs
immediately at boot, with following messags in /var/log/messages:</font></tt>
<br><tt><font size=2>Mar 14 21:21:30 VLET3 kernel: [255777.604342] type=1400
audit(1300134090.205:39): apparmor="STATUS" operation="profile_load"
name="libvirt-02f97acb-d586-4eb9-9f59-e1df7a3cd647" pid=29124
comm="apparmor_parser"</font></tt>
<br><tt><font size=2>Mar 14 21:21:30 VLET3 libvirtd: 21:21:30.803: warning
: qemudParsePCIDeviceStrs:1422 : Unexpected exit status '1', qemu probably
failed</font></tt>
<br><tt><font size=2>Mar 14 21:21:30 VLET3 kernel: [255778.193514] device
vnet0 entered promiscuous mode</font></tt>
<br><tt><font size=2>Mar 14 21:21:30 VLET3 kernel: [255778.193540] br0:
new device vnet0 does not support netpoll (disabling)</font></tt>
<br><tt><font size=2>Mar 14 21:21:30 VLET3 kernel: [255778.195370] br0:
port 2(vnet0) entering learning state</font></tt>
<br><tt><font size=2>Mar 14 21:21:30 VLET3 kernel: [255778.195374] br0:
port 2(vnet0) entering learning state</font></tt>
<br><tt><font size=2>Mar 14 21:21:45 VLET3 kernel: [255793.206140] br0:
port 2(vnet0) entering forwarding state</font></tt>
<br>
<br><tt><font size=2>> Did the host version change, I had a problem
on an older system <br>
> where the disk was type raw even though it was qcow2, on a newer <br>
> lucid host system I had to change it to explicitly state qcow2 then
<br>
> it was fine?</font></tt>
<br><tt><font size=2>> <br>
> --<br>
> Dave<br>
</font></tt>
<br><tt><font size=2>->It is mentioned correctly in the host's XML:</font></tt>
<br>
<br><tt><font size=2><domain type='kvm'></font></tt>
<br><tt><font size=2>  <name>ISPConfigLET2</name></font></tt>
<br><tt><font size=2>  <uuid>101682a8-5969-4ac0-b7dd-53fddd207365</uuid></font></tt>
<br><tt><font size=2>  <memory>524288</memory></font></tt>
<br><tt><font size=2>  <currentMemory>524288</currentMemory></font></tt>
<br><tt><font size=2>  <vcpu>1</vcpu></font></tt>
<br><tt><font size=2>  <os></font></tt>
<br><tt><font size=2>    <type arch='i686' machine='pc-0.12'>hvm</type></font></tt>
<br><tt><font size=2>    <boot dev='hd'/></font></tt>
<br><tt><font size=2>  </os></font></tt>
<br><tt><font size=2>  <features></font></tt>
<br><tt><font size=2>    <acpi/></font></tt>
<br><tt><font size=2>  </features></font></tt>
<br><tt><font size=2>  <clock offset='utc'/></font></tt>
<br><tt><font size=2>  <on_poweroff>destroy</on_poweroff></font></tt>
<br><tt><font size=2>  <on_reboot>restart</on_reboot></font></tt>
<br><tt><font size=2>  <on_crash>destroy</on_crash></font></tt>
<br><tt><font size=2>  <devices></font></tt>
<br><tt><font size=2>    <emulator>/usr/bin/kvm</emulator></font></tt>
<br><tt><font size=2>    <disk type='file' device='disk'></font></tt>
<br><tt><font size=2>      <driver name='qemu' type='qcow2'/></font></tt>
<br><tt><font size=2>      <source file='/var/lib/libvirt/images/nfs-pool3/ispconfig2.qcow2'/></font></tt>
<br><tt><font size=2>      <target dev='hda' bus='ide'/></font></tt>
<br><tt><font size=2>      <address type='drive' controller='0'
bus='0' unit='0'/></font></tt>
<br><tt><font size=2>    </disk></font></tt>
<br><tt><font size=2>    <controller type='ide' index='0'></font></tt>
<br><tt><font size=2>      <address type='pci' domain='0x0000'
bus='0x00' slot='0x01' function='0x1'/></font></tt>
<br><tt><font size=2>    </controller></font></tt>
<br><tt><font size=2>    <interface type='bridge'></font></tt>
<br><tt><font size=2>      <mac address='00:0c:29:9a:6b:a4'/></font></tt>
<br><tt><font size=2>      <source bridge='br0'/></font></tt>
<br><tt><font size=2>      <target dev='vnet0'/></font></tt>
<br><tt><font size=2>      <address type='pci' domain='0x0000'
bus='0x00' slot='0x03' function='0x0'/></font></tt>
<br><tt><font size=2>    </interface></font></tt>
<br><tt><font size=2>    <input type='mouse' bus='ps2'/></font></tt>
<br><tt><font size=2>    <graphics type='vnc' port='-1' autoport='yes'
listen='127.0.0.1'/></font></tt>
<br><tt><font size=2>    <video></font></tt>
<br><tt><font size=2>      <model type='cirrus' vram='9216'
heads='1'/></font></tt>
<br><tt><font size=2>      <address type='pci' domain='0x0000'
bus='0x00' slot='0x02' function='0x0'/></font></tt>
<br><tt><font size=2>    </video></font></tt>
<br><tt><font size=2>    <memballoon model='virtio'></font></tt>
<br><tt><font size=2>      <address type='pci' domain='0x0000'
bus='0x00' slot='0x04' function='0x0'/></font></tt>
<br><tt><font size=2>    </memballoon></font></tt>
<br><tt><font size=2>  </devices></font></tt>
<br><tt><font size=2></domain></font></tt>
<br>
<br><tt><font size=2>"Serge E. Hallyn" <serge.hallyn@ubuntu.com>
wrote on 14/03/2011 14:27:04:<br>
<br>
> From: "Serge E. Hallyn" <serge.hallyn@ubuntu.com></font></tt>
<br><tt><font size=2>> To: jurgen.depicker@let.be</font></tt>
<br><tt><font size=2>> Cc: ubuntu-server@lists.ubuntu.com</font></tt>
<br><tt><font size=2>> Date: 14/03/2011 14:27</font></tt>
<br><tt><font size=2>> Subject: Re: troubles copying qcow2 VM images</font></tt>
<br><tt><font size=2>> <br>
> Quoting jurgen.depicker@let.be (jurgen.depicker@let.be):<br>
> > Dear all,<br>
> > <br>
> > I'm facing a weird situation, trying to migrate from one storage
pool (on <br>
> > VLET1, SWRAID1,SATA) to another (on VLET3, HWRAID1,SAS)<br>
> > (all servers VLET1,2,3 on ubuntu 10.10)<br>
> > <br>
> > 1. I stop all running VM instances<br>
> > 2. On VLET3, I have an NFS share of VLET1 mounted<br>
> > 3. On VLET3, I issue: cp /mnt/nfs/VM1.qcow2  /srv/VMs/<br>
> > 4. I reconfigure VM1 to use the newly created copied /srv/VMs/VM1.qcow2<br>
> > <br>
> > -> it gets mounted read-only apparently; it doesn't work.
 When using <br>
> > rsync instead of cp, there's no difference...  I really
don't understand <br>
> > what's going on...  Who has a clue please??<br>
> <br>
> Can you sha1sum {/mnt/nfs,/srv/VMs/}/VM1.qcow2?  My guess is
this is an<br>
> NFS bug with large file xfer corruption.<br>
> <br>
> -serge<br>
</font></tt>
<br><tt><font size=2>Great, I didn't think of that one before!  I
thought that was it, but, unfortunately, I ran sha1sum on VLET1 and VLET3's
copies, and both give the same checksum.</font></tt>
<br><tt><font size=2>I really really don't understand this...  Is
there some 'magic' associated with qcow2 images, so you need to copy them
in a special way?  But since the sha1sums are identical...</font></tt>
<br><tt><font size=2>The funny thing is, most of these images were VMWare
images which I converted.  They were first stored on other systems,
and I could copy the qcow2 images to VLET1 and they all worked fine.  But
now it seems impossible to move them...<br>
 <br>
 Kind regards, </font></tt>
<br><tt><font size=2> Jürgen </font></tt>