Lipetsk *nix Association Forum Lipetsk *nix Association Forum
Новости:
 
*
Добро пожаловать, Гость. Пожалуйста, войдите или зарегистрируйтесь.
Вам не пришло письмо с кодом активации?
19 Апреля 2024, 12:54:58


Войти


Страниц: [1]   Вниз
  Печать  
Автор Тема: Виртуальный терминал сервер  (Прочитано 10592 раз)
0 Пользователей и 1 Гость смотрят эту тему.
wrag
Небритый одмин
*****

Карма: 0
Сообщений: 673


ОС:
Linux Linux
Браузер:
Opera 9.80 Opera 9.80


Награды
« : 17 Мая 2011, 22:02:11 »

общая задача:
поднять на железе с поддержкой виртуализации, виртуальный терминальный сервер.
С которого будет на сеть раздоваться dhcp и dns.

1. делаю проверку на поддержку технологии процом:
egrep '(vmx|svm)' --color=always /proc/cpuinfo
2. включаю в биосе поддержку виртуализации
3. решено было использовать KVM (for Kernel-based Virtual Machine) из-за поддержки полной виртуализации, а в качестве оболочки, не голую консоль Linuxа или юникса, а полноценное десктопное окружение (остановились на убунте 11 х64)
4. далее сама установка qemu-kvm с зависимостями (в общем пока что выполнена полностью часть мана до первого ребута http://www.howtoforge.com/virtualization-with-kvm-on-ubuntu-10.10  -- осторожно на англицком)
5.добавляем в группу своего рута
adduser `id -un` libvirtd
 adduser `id -un` kvm
6. проверяем командой как все у нас живет
virsh -c qemu:///system list

вывод команды:

root@server1:~# virsh -c qemu:///system list
  Id Name                 State
 ----------------------------------

7. ставим bridge-utils
и начинаем настраивать интерфейсы
после чего рестартуем интерфейсы
/etc/init.d/networking restart
и проверяем появились ли прописанные интерфейсы при выводе команды
ifconfig
8.теперь ребутаемся


теперь пошло расхождение с мануалом:
9. с помощью менеджера виртуальных машин ставим нашу систему, где будет крутится наш виртуальный терминал сервер.
для того чтобы он увидел образы дисков с которых ставится система подкладываем их в папку /var/lib/libvirt/images
после чего успешно устанавливаем систему


вопрос:
Как настроить интерфейсы, чтобы в сети машина имела нормальный айпи (не находилась за  NAT) и была доступна по сети одновременно с сервером на котором крутится эта виртуалка (связка убунта 11 и квм)?


Добавлено: 18 Мая 2011, 21:37:34
как выяснилось в минимализме серверной оси есть свой резон
пришлось протестировать еще и дебиан в десктопной версии чтобы подтвердить данный тезис

вконце концов остановились на дебиане в варианте минимал сиди. (200 с чем то метров)

так что получился следущий мануал установки
1. делаю проверку на поддержку технологии процом:
egrep '(vmx|svm)' --color=always /proc/cpuinfo
2. включаю в биосе поддержку виртуализации
3. решено было использовать KVM (for Kernel-based Virtual Machine) из-за поддержки полной виртуализации, а в качестве оболочки debian 6 minimal cd
4. после установки, настроим сеть (прописываем сетевой интерфейс в файл /etc/network/interfaces)
   auto eth1
   iface eth1 inet static
   address 192.168.0.2
   netmask 255.255.255.0
   gateway 192.168.0.1
5. настраиваем репозитарии (вариантов много так что выбираем более всего подходящий /etc/apt/sources.list)
6. и первый установленный пакет это ssh сервер
7. далее соединяемся по удаленке к серверу
8. следущим пунктом достаточно важным кстати являеться установка бриджа причем до установки KVM (иначе сидеть нам за nat)
    для чего ставим пакет bridge-utils и в файле /etc/network/interfaces удаляем все нафиг и пишем следущие настройки
   auto br0
   iface br0 inet static
        address 192.168.0.10
        network 192.168.0.0
        netmask 255.255.255.0
        broadcast 192.168.0.255
        gateway 192.168.0.1
        bridge_ports eth0
дальнейшая часть не всегда нужна:
        bridge_fd 9
        bridge_hello 2
        bridge_maxage 12
        bridge_stp off

9. теперь ставим KVM стандартно через apt-get помимо него ставим libvirt-bin, virtinst, virt-manager причем последний ставим и у себя
10. вот чтобы не писать команды наподобие этого:
vmbuilder kvm ubuntu --suite=lucid --flavour=virtual --arch=amd64 --mirror=http://de.archive.ubuntu.com/ubuntu -o --libvirt=qemu:///system --ip=192.168.0.101 --gw=192.168.0.1 --part=vmbuilder.partition --templates=mytemplates --user=administrator --name=Administrator --pass=howtoforge --addpkg=vim-nox --addpkg=unattended-upgrades --addpkg=acpid --firstboot=/vm/vm1/boot.sh --mem=256 --hostname=vm1 --bridge=br0
подкладываем установочные образы той системы что будем ставить (в моем случае винда 2003) в папку /var/lib/libvirt/images
и после этого у себя компьютере запускаем вирт-менеджер и создаем виртуальную машину указывая ее параметры и то что сетевым устройством будет br0
11. теперь запускаем у себя виртуальную машину и ставим систему, полсе установки пришлось прибить брендмауер в винде чтобы виртуалка наконец получила от общего dhcp ip-адресс


Добавлено: 18 Мая 2011, 21:45:58
да после пункта 8 не забываем:
а)  перезагрузить интерфейсы /etc/init.d/networking restart
б)  проверить появиться ли теперь наш бридж br0  - выполняем команды     ifconfig
б1) еще один вариант вывода тойже информации                                      ip addr show

в) ребутнуться чтобы проверить нормально ли принялись настройки моста в системе и поднимиться ли он если вы все же захотите перегрузить сервер)))

Добавлено: 19 Мая 2011, 20:57:46
12. теперь продолжаем издеваться над сервером ставим raid1 подключаем два винта (одинаковых) )) 
13. ставим mdadm и после ответа на вопросы о том что хотим ли мы настроить что нибуть типа рейда отвечаем нет (не наш метод) мы будем ковырять вручную, чтобы прочуствовать откуда чьи ноги торчат.
14. Так как у нас в виртуалке крутиться винда, то пришлось качнуть обновления и поставить антивирус (венда она нежная)))
15. после чего ребутаем сервер, и выполнив команду cat /proc/mdstat, внимательно читаем не появились ли у нас незапланированные рейды (md0, md1, md127 .... или что то что мы еще не настраивали)
16. если что-то появилось деактивируем и собираем тот рейд, что нам понравиться, командой fdisk разруливаем разделы на винтах, а после собираем свой рейд командой mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sda1 /dev/sdc1
« Последнее редактирование: 19 Мая 2011, 21:07:22 от wrag » Записан

живущий в консоли
начальник отдела системотехники Люцифеp
wrag
Небритый одмин
*****

Карма: 0
Сообщений: 673


ОС:
Linux Linux
Браузер:
Opera 9.80 Opera 9.80


Награды
« Ответ #1 : 02 Июня 2011, 09:49:58 »

в общем, так как оказалось, что резервировать бы надо еще и хост систему,
пришлось последовать совету - все ерунда все переделать.

при попытке установить хост систему на рейд 1, вылезла проблема, что дебиан 6.01 не ставиться ни в варианте х64, ни в варианте 32 битной архитектуры.
причина в том, что граб2 не ставился на рейд 1, погуглил и выяснил, что граб2 не понимает какие-то методанные рейда (нужна версия 09, а в новых системах версия 1.2) при установке с нуля средствами дефолтного установщика, хотя можно было бы переключившись в консоль вручную все исправить и установить не используя установщик. но так как по идее что с этим должен справиться и полный ламер решено было перейти на другой дистрибутив но близкий к дебиану - заюзали убунту 11 в режиме текстовой установки, как оказалось тут все прошло как по маслу и встало без граблей.

в результате: у нас появилась хост система на рейд 1, плюс винт, под всякий бекап или прочий место-занимающий хлам.
далее уже проще, установили kvm и libvirt подняли на нём виртуалку винды (попутно выяснив, что многие приложения необходимые для сервера с установленными самописными компонентами торговой направлености, например: цфт клиент отказываються запускаться, если расположены на сетевой шаре, пришлось к виртуалке цеплять второй виртуальный жесткий диск [два диска как минимум нужны для поддержании концепции разделение информации на данные и систему] )
далее поднимается сервер лицензий терминала, ставится упрощенный ftp демон, после поднимается dhcp и dns плюс терминальный клиент tftpboot.
также не забывая выполнить части предыдущих постов для настройки хоста (кроме рейда который создаеться при установке, и как выяснилось что для наших целей ставить qemu не нужно)
« Последнее редактирование: 02 Июня 2011, 09:54:18 от wrag » Записан

живущий в консоли
начальник отдела системотехники Люцифеp
Страниц: [1]   Вверх
  Печать  
 
Перейти в:  

Powered by MySQL Powered by PHP Powered by SMF 1.1.21 | SMF © 2011, Simple Machines

Valid XHTML 1.0! Valid CSS! Dilber MC Theme by HarzeM