[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Problem mit GFS Einrichtung



Hi,

ich probiere mich gerade an der Umstellung eines DRBD-Setups auf Dual-Primary mit GFS. Bislang nutze ich XFS, das keinen Dual-Primary-Einsatz erlaubt. Da einer der beiden DRBD-Nodes noch die zu migrierenden Daten enthält, habe ich mich bislang nur an einer Maschine zu schaffen gemacht. Vielleicht steckt hier bereits der Fehler. :-/

Wie Ihr in Schritt 12 seht, startet cman nicht. Ein Fehler in der cluster.conf ?

Der Fakt, dass ich das LVM sauber eingerichtet bekomme, sagt mir, dass der Zugriff auf die Festplatte selbst keine Probleme zu verursachen scheint. Daher lasse ich die DRBD-Konfiguration hier mal außen vor.

Eingesetzt wird übrigens ein aktuelles Debian 6.

Ich bin wie folgt vorgegangen...

1. # apt-get install gfs-tools gfs2-tools

2. # cat /etc/cluster/cluster.conf
<cluster name="GFS_VMS" config_version="3">
<totem consensus="6000" token="3000">
<cman two_node="1" expected_votes="1">
<clusternodes>
<clusternode name="xen1" votes="1" nodeid="1">
<fence>
<method name="single">
<device name="manual" ipaddr="192.168.10.201"></device>
</method>
</fence>
</clusternode>
<clusternode name="xen2" votes="1" nodeid="2">
<fence>
<method name="single">
<device name="manual" ipaddr="192.168.10.202"></device>
</method>
</fence>
</clusternode>
<fence_daemon clean_start="1" post_fail_delay="0" post_join_delay="3">
<fencedevices>
<fencedevice name="manual" agent="fence_manual"></fencedevice>
</fencedevices>
</fence_daemon>
</clusternodes>
</cman>
</totem>
</cluster>

3. # cat /etc/lvm/lvm.conf | grep "locking_type"
    locking_type = 3

4. # cat /etc/lvm/lvm.conf | grep "/dev/drbd"
    filter = [ "a/.*/", "a|/dev/drbd.*|" ]

5. # cat /etc/lvm/lvm.conf | grep write_cache_state
    write_cache_state = 0

6. # rm /etc/lvm/cache/.cache

7. # vgcreate VG_VMS /dev/drbd0

8. # lvcreate -l 100%VG --name LV_VMS VG_VMS

9. # lvdisplay VG_VMS
[...]
  --- Logical volume ---
  LV Name                /dev/VG_VMS/LV_VMS
  VG Name                VG_VMS
  LV UUID                wCEbzy-zvVd-fI0i-1MYO-pm0n-aGPU-yVelrd
  LV Write Access        read/write
  LV Status              available
  # open                 0
  LV Size                14,53 TiB
  Current LE             3808916
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           254:2

10. # mkfs.gfs -t GFS_VMS:drbd-sr1 -j 2 /dev/VG_VMS/LV_VMS

11. # mount -t gfs /dev/VG_VMS/LV_VMS /_vms
gfs_controld join connect error: Connection refused
error mounting lockproto lock_dlm

12. # /etc/init.d/cman start
Starting cluster:
   Checking Network Manager... [  OK  ]
   Global setup... [  OK  ]
   Loading kernel modules... [  OK  ]
   Mounting configfs... [  OK  ]
   Starting cman... Cannot find node name in cluster.conf
Unable to get the configuration
Cannot find node name in cluster.conf
cman_tool: corosync daemon didn't start
[FAILED]


CU,
Mészi.


Reply to: