반응형

Note: These instructions were originally created for older version of Ubuntu (12.04). Some required resource (e.g. grub ppa) is not available on newer versions, thus can lead to errors. If you use Ubuntu 14.04 or newer, see this page instead, which also allows things like raidz root, boot from snapshot, zfs-only setup (no need for separate /boot/grub), and lz4 compression.


These instructions are for Ubuntu. The procedure for Debian, Mint, or other distributions in the DEB family is similar but not identical.

System Requirements

  • 64-bit Ubuntu Live CD. (Not the alternate installer, and not the 32-bit installer!)
  • AMD64 or EM64T compatible computer. (ie: x86-64)
  • 8GB disk storage available.
  • 2GB memory minimum.

Computers that have less than 2GB of memory run ZFS slowly. 4GB of memory is recommended for normal performance in basic workloads. 16GB of memory is the recommended minimum for deduplication. Enabling deduplication is a permanent change that cannot be easily reverted.

Recommended Version

  • Ubuntu 12.04 Precise Pangolin
  • spl-0.6.3
  • zfs-0.6.3

Step 1: Prepare The Install Environment

1.1 Start the Ubuntu LiveCD and open a terminal at the desktop.

1.2 Input these commands at the terminal prompt:

$ sudo -i
# apt-add-repository --yes ppa:zfs-native/stable
# apt-get update
# apt-get install debootstrap spl-dkms zfs-dkms ubuntu-zfs

1.3 Check that the ZFS filesystem is installed and available:

# modprobe zfs
# dmesg | grep ZFS:
ZFS: Loaded module v0.6.3-2~trusty, ZFS pool version 5000, ZFS filesystem version 5

Step 2: Disk Partitioning

This tutorial intentionally recommends MBR partitioning. GPT can be used instead, but beware of UEFI firmware bugs.

2.1 Run your favorite disk partitioner, like parted or cfdisk, on the primary storage device. /dev/disk/by-id/scsi-SATA_disk1 is the example device used in this document.

2.2 Create a small MBR primary partition of at least 8 megabytes. 256mb may be more realistic, unless space is tight. /dev/disk/by-id/scsi-SATA_disk1-part1 is the example boot partition used in this document.

2.3 On this first small partition, set type=BE and enable the bootable flag.

2.4 Create a large partition of at least 4 gigabytes. /dev/disk/by-id/scsi-SATA_disk1-part2 is the example system partition used in this document.

2.5 On this second large partition, set type=BF and disable the bootable flag.

The partition table should look like this:

# fdisk -l /dev/disk/by-id/scsi-SATA_disk1

Disk /dev/sda: 10.7 GB, 10737418240 bytes
255 heads, 63 sectors/track, 1305 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Device    Boot      Start         End      Blocks   Id  System
/dev/sda1    *          1           1        8001   be  Solaris boot
/dev/sda2               2        1305    10474380   bf  Solaris

Remember: Substitute scsi-SATA_disk1-part1 and scsi-SATA_disk1-part2 appropriately below.

Hints:

  • Are you doing this in a virtual machine? Is something in /dev/disk/by-id missing? Go read the troubleshooting section.
  • Recent GRUB releases assume that the /boot/grub/grubenv file is writable by the stage2 module. Until GRUB gets a ZFS write enhancement, the GRUB modules should be installed to a separate filesystem in a separate partition that is grub-writable.
  • If /boot/grub is in the ZFS filesystem, then GRUB will fail to boot with this message: error: sparse file not allowed. If you absolutely want only one filesystem, then remove the call to recordfail() in each grub.cfg menu stanza, and edit the /etc/grub.d/10_linux file to make the change permanent.
  • Alternatively, if /boot/grub is in the ZFS filesystem you can comment each line with the text save_env in the file /etc/grub.d/00_header and run update-grub.

Step 3: Disk Formatting

3.1 Format the small boot partition created by Step 2.2 as a filesystem that has stage1 GRUB support like this:

# mke2fs -m 0 -L /boot/grub -j /dev/disk/by-id/scsi-SATA_disk1-part1

3.2 Create the root pool on the larger partition:

# zpool create -o ashift=9 rpool /dev/disk/by-id/scsi-SATA_disk1-part2

Always use the long /dev/disk/by-id/* aliases with ZFS. Using the /dev/sd* device nodes directly can cause sporadic import failures, especially on systems that have more than one storage pool.

Warning: The grub2-1.99 package currently published in the PPA for Precise does not reliably handle a 4k block size, which is ashift=12.

Hints:

  • # ls -la /dev/disk/by-id will list the aliases.
  • The root pool can be a mirror. For example, zpool create -o ashift=9 rpool mirror /dev/disk/by-id/scsi-SATA_disk1-part2 /dev/disk/by-id/scsi-SATA_disk2-part2. Remember that the version and ashift matter for any pool that GRUB must read, and that these things are difficult to change after pool creation.
  • If you are using a mirror with a separate boot partition as described above, don't forget to edit the grub.cfg file on the second HD partition so that the "root=" partition refers to that partition on the second HD also; otherwise, if you lose the first disk, you won't be able to boot from the second because the kernel will keep trying to mount the root partition from the first disk.
  • The pool name is arbitrary. On systems that can automatically install to ZFS, the root pool is named "rpool" by default. Note that system recovery is easier if you choose a unique name instead of "rpool". Anything except "rpool" or "tank", like the hostname, would be a good choice.
  • If you want to create a mirror but only have one disk available now you can create the mirror using a sparse file as the second member then immediately off-line it so the mirror is in degraded mode. Later you can add another drive to the spool and ZFS will automatically sync them. The sparse file won't take up more than a few KB so it can be bigger than your running system. Just make sure to off-line the sparse file before writing to the pool.

3.2.1 Create a sparse file at least as big as the larger partition on your HDD:

# truncate -s 11g /tmp/sparsefile

3.2.2 Instead of the command in section 3.2 use this to create the mirror:

# zpool create -o ashift=9 rpool mirror /dev/disk/by-id/scsi-SATA_disk1-part2 /tmp/sparsefile

3.2.3 Offline the sparse file. You can delete it after this if you want.

# zpool offline rpool /tmp/sparsefile

3.2.4 Verify that the pool was created and is now degraded.

# zpool list
NAME       SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
rpool     10.5G   188K  10.5G     0%  1.00x  DEGRADED  -

3.3 Create a "ROOT" filesystem in the root pool:

# zfs create rpool/ROOT

3.4 Create a descendant filesystem for the Ubuntu system:

# zfs create rpool/ROOT/ubuntu-1

On Solaris systems, the root filesystem is cloned and the suffix is incremented for major system changes through pkg image-update or beadm. Similar functionality for APT is possible but currently unimplemented.

3.5 Dismount all ZFS filesystems.

# zfs umount -a

3.6 Set the mountpoint property on the root filesystem:

# zfs set mountpoint=/ rpool/ROOT/ubuntu-1

3.7 Set the bootfs property on the root pool.

# zpool set bootfs=rpool/ROOT/ubuntu-1 rpool

The boot loader uses these two properties to find and start the operating system. These property names are not arbitrary.

Hint: Putting rpool=MyPool or bootfs=MyPool/ROOT/system-1 on the kernel command line overrides the ZFS properties.

3.9 Export the pool:

# zpool export rpool

Don't skip this step. The system is put into an inconsistent state if this command fails or if you reboot at this point.

Step 4: System Installation

Remember: Substitute "rpool" for the name chosen in Step 3.2.

4.1 Import the pool:

# zpool import -d /dev/disk/by-id -R /mnt rpool

If this fails with "cannot import 'rpool': no such pool available", you can try import the pool without the device name eg:

    # zpool import -R /mnt rpool

4.2 Mount the small boot filesystem for GRUB that was created in step 3.1:

# mkdir -p /mnt/boot/grub
# mount /dev/disk/by-id/scsi-SATA_disk1-part1 /mnt/boot/grub

4.4 Install the minimal system:

# debootstrap trusty /mnt

The debootstrap command leaves the new system in an unconfigured state. In Step 5, we will only do the minimum amount of configuration necessary to make the new system runnable.

Step 5: System Configuration

5.1 Copy these files from the LiveCD environment to the new system:

# cp /etc/hostname /mnt/etc/
# cp /etc/hosts /mnt/etc/

5.2 The /mnt/etc/fstab file should be empty except for a comment. Add this line to the /mnt/etc/fstab file:

/dev/disk/by-id/scsi-SATA_disk1-part1  /boot/grub  auto  defaults  0  1

The regular Ubuntu desktop installer may add dev, proc, sys, or tmp lines to the /etc/fstab file, but such entries are redundant on a system that has a /lib/init/fstab file. Add them now if you want them.

5.3 Edit the /mnt/etc/network/interfaces file so that it contains something like this:

# interfaces(5) file used by ifup(8) and ifdown(8)
auto lo
iface lo inet loopback

auto eth0
iface eth0 inet dhcp

Customize this file if the new system is not a DHCP client on the LAN.

5.4 Make virtual filesystems in the LiveCD environment visible to the new system and chroot into it:

# mount --bind /dev  /mnt/dev
# mount --bind /proc /mnt/proc
# mount --bind /sys  /mnt/sys
# chroot /mnt /bin/bash --login

5.5 Install PPA support in the chroot environment like this:

# locale-gen en_US.UTF-8
# apt-get update
# apt-get install ubuntu-minimal software-properties-common

Even if you prefer a non-English system language, always ensure that en_US.UTF-8 is available. The ubuntu-minimal package is required to use ZoL as packaged in the PPA.

5.6 Install ZFS in the chroot environment for the new system:

# apt-add-repository --yes ppa:zfs-native/stable
# apt-add-repository --yes ppa:zfs-native/grub
# apt-get update
# apt-get install --no-install-recommends linux-image-generic linux-headers-generic
# apt-get install ubuntu-zfs
# apt-get install grub2-common grub-pc
# apt-get install zfs-initramfs
# apt-get dist-upgrade

Warning: This is the second time that you must wait for the SPL and ZFS modules to compile. Do not try to skip this step by copying anything from the host environment into the chroot environment.

Note: This should install a kernel package and its headers, a patched mountall and dkms packages. Double-check that you are getting these packages from the PPA if you are deviating from these instructions in any way.

Choose /dev/disk/by-id/scsi-SATA_disk1 if prompted to install the MBR loader.

Ignore warnings that are caused by the chroot environment like:

  • Can not write log, openpty() failed (/dev/pts not mounted?)
  • df: Warning: cannot read table of mounted file systems
  • mtab is not present at /etc/mtab.

5.7 Set a root password on the new system:

# passwd root

Hint: If you want the ubuntu-desktop package, then install it after the first reboot. If you install it now, then it will start several process that must be manually stopped before dismount.

Step 6: GRUB Installation

Remember: All of Step 6 depends on Step 5.4 and must happen inside the chroot environment.

6.1 Verify that the ZFS root filesystem is recognized by GRUB:

# grub-probe /
zfs

And that the ZFS modules for GRUB are installed:

# ls /boot/grub/zfs*
/boot/grub/zfs.mod  /boot/grub/zfsinfo.mod

Note that after Ubuntu 13, these are now in /boot/grub/i386/pc/zfs*

# ls /boot/grub/i386-pc/zfs*
/boot/grub/i386-pc/zfs.mod  /boot/grub/i386-pc/zfsinfo.mod

Otherwise, check the troubleshooting notes for GRUB below.

6.2 Refresh the initrd files:

# update-initramfs -c -k all
update-initramfs: Generating /boot/initrd.img-3.2.0-40-generic

6.3 Update the boot configuration file:

# update-grub
Generating grub.cfg ...
Found linux image: /boot/vmlinuz-3.2.0-40-generic
Found initrd image: /boot/initrd.img-3.2.0-40-generic
done

Verify that boot=zfs appears in the boot configuration file:

# grep boot=zfs /boot/grub/grub.cfg
linux /ROOT/ubuntu-1/@/boot/vmlinuz-3.2.0-40-generic root=/dev/sda2 ro boot=zfs $bootfs quiet splash $vt_handoff
linux /ROOT/ubuntu-1/@/boot/vmlinuz-3.2.0-40-generic root=/dev/sda2 ro single nomodeset boot=zfs $bootfs

6.4 Install the boot loader to the MBR like this:

# grub-install $(readlink -f /dev/disk/by-id/scsi-SATA_disk1)
Installation finished. No error reported.

Do not reboot the computer until you get exactly that result message. Note that you are installing the loader to the whole disk, not a partition.

Note: The readlink is required because recent GRUB releases do not dereference symlinks.

Step 7: Cleanup and First Reboot

7.1 Exit from the chroot environment back to the LiveCD environment:

# exit

7.2 Run these commands in the LiveCD environment to dismount all filesystems:

# umount /mnt/boot/grub
# umount /mnt/dev
# umount /mnt/proc
# umount /mnt/sys
# zfs umount -a
# zpool export rpool

The zpool export command must succeed without being forced or the new system will fail to start.

7.3 We're done!

# reboot

Caveats and Known Problems

This is an experimental system configuration.

This document was first published in 2010 to demonstrate that the lzfs implementation made ZoL 0.5 feature complete. Upstream integration efforts began in 2012, and it will be at least a few more years before this kind of configuration is even minimally supported.

Gentoo, and its derivatives, are the only Linux distributions that are currently mainlining support for a ZoL root filesystem.

zpool.cache inconsistencies cause random pool import failures.

The /etc/zfs/zpool.cache file embedded in the initrd for each kernel image must be the same as the /etc/zfs/zpool.cache file in the regular system. Run update-initramfs -c -k all after any /sbin/zpool command changes the /etc/zfs/zpool.cache file.

Pools do not show up in /etc/zfs/zpool.cache when imported with the -R flag.

This will be a recurring problem until issue zfsonlinux/zfs#330 is resolved.

Every upgrade can break the system.

Ubuntu systems remove old dkms modules before installing new dkms modules. If the system crashes or restarts during a ZoL module upgrade, which is a failure window of several minutes, then the system becomes unbootable and must be rescued.

This will be a recurring problem until issue zfsonlinux/pkg-zfs#12 is resolved.

When doing an upgrade remotely an extra precaution would be to use screen, this way if you get disconnected your installation will not get interrupted.

Troubleshooting

(i) MPT2SAS

Most problem reports for this tutorial involve mpt2sas hardware that does slow asynchronous drive initialization, like some IBM M1015 or OEM-branded cards that have been flashed to the reference LSI firmware.

The basic problem is that disks on these controllers are not visible to the Linux kernel until after the regular system is started, and ZoL does not hotplug pool members. See https://github.com/zfsonlinux/zfs/issues/330.

Most LSI cards are perfectly compatible with ZoL, but there is no known fix if your card has this glitch. Please use different equipment until the mpt2sas incompatibility is diagnosed and fixed, or donate an affected part if you want solution sooner.

(ii) Areca

Systems that require the arcsas blob driver should add it to the /etc/initramfs-tools/modules file and run update-initramfs -c -k all.

Upgrade or downgrade the Areca driver if something like RIP: 0010:[<ffffffff8101b316>] [<ffffffff8101b316>] native_read_tsc+0x6/0x20 appears anywhere in kernel log. ZoL is unstable on systems that emit this error message.

(iii) GRUB Installation

Verify that the PPA for the ZFS enhanced GRUB is installed:

# apt-add-repository ppa:zfs-native/grub
# apt-get update

Reinstall the zfs-grub package, which is an alias for a patched grub-common package:

# apt-get install --reinstall zfs-grub

Afterwards, this should happen:

# apt-cache search zfs-grub
grub-common - GRand Unified Bootloader (common files)

# apt-cache show zfs-grub
N: Can't select versions from package 'zfs-grub' as it is purely virtual
N: No packages found

# apt-cache policy grub-common zfs-grub
grub-common:
 Installed: 1.99-21ubuntu3.9+zfs1~precise1
 Candidate: 1.99-21ubuntu3.9+zfs1~precise1
 Version table:
*** 1.99-21ubuntu3.9+zfs1~precise1 0
      1001 http://ppa.launchpad.net/zfs-native/grub/ubuntu/precise/main amd64 Packages
       100 /var/lib/dpkg/status
    1.99-21ubuntu3 0
      1001 http://us.archive.ubuntu.com/ubuntu/ precise/main amd64 Packages
zfs-grub:
 Installed: (none)
 Candidate: (none)
 Version table:

For safety, grub modules are never updated by the packaging system after initial installation. Manually refresh them by doing this:

# cp /usr/lib/grub/i386-pc/*.mod /boot/grub/

If the problem persists, then open a bug report and attach the entire output of those apt-get commands.

Packages in the GRUB PPA are compiled against the stable PPA. Systems that run the daily PPA may experience failures if the ZoL library interface changes.

Note that GRUB does not currently dereference symbolic links in a ZFS filesystem, so you cannot use the /vmlinux or /initrd.img symlinks as GRUB command arguments.

(iv) GRUB does not support ZFS Compression

If the /boot hierarchy is in ZFS, then that pool should not be compressed. The grub packages for Ubuntu are usually incapable of loading a kernel image or initrd from a compressed dataset.

(v) VMware

  • Set disk.EnableUUID = "TRUE" in the vmx file or vsphere configuration. Doing this ensures that /dev/disk aliases are created in the guest.

(vi) QEMU/KVM/XEN

  • In the /etc/default/grub file, enable the GRUB_TERMINAL=console line and remove the splash option from the GRUB_CMDLINE_LINUX_DEFAULT line. Plymouth can cause boot errors in these virtual environments that are difficult to diagnose.

  • Set a unique serial number on each virtual disk. (eg: -drive if=none,id=disk1,file=disk1.qcow2,serial=1234567890)

(vii) Kernel Parameters

The zfs-initramfs package requires that boot=zfs always be on the kernel command line. If the boot=zfs parameter is not set, then the init process skips the ZFS routine entirely. This behavior is for safety; it makes the casual installation of the zfs-initramfs package unlikely to break a working system.

ZFS properties can be overridden on the the kernel command line with rpool and bootfs arguments. For example, at the GRUB prompt:

linux /ROOT/ubuntu-1/@/boot/vmlinuz-3.0.0-15-generic boot=zfs rpool=AltPool bootfs=AltPool/ROOT/foobar-3

(viii) System Recovery

If the system randomly fails to import the root filesystem pool, then do this at the initramfs recovery prompt:

# zpool export rpool
: now export all other pools too
# zpool import -d /dev/disk/by-id -f -N rpool
: now import all other pools too
# mount -t zfs -o zfsutil rpool/ROOT/ubuntu-1 /root
: do not mount any other filesystem
# cp /etc/zfs/zpool.cache /root/etc/zfs/zpool.cache
# exit

This refreshes the /etc/zfs/zpool.cache file. The zpool command emits spurious error messages regarding missing or corrupt vdevs if the zpool.cache file is stale or otherwise incorrect.

반응형
반응형



우분투 설치 후 ssh 접속 시 10초 정도 지나야 패스워드를 묻는 현상을 해결하는 방법은

/etc/ssh/ssh_config 에서 GGSAPIAuthentication 을 주석처리 하는것.


하지만 이렇게 해도 실제 로그인 시 프롬프트가 늦게 뜬다.

이때는 etc/ssh/sshd_confg 에 UseDNS no 로 설정한 뒤


/etc/init.d/ssh restart를 해주면 해결.



반응형
반응형



1. /etc/hostname 에서 원하는 호스트 이름 변경


2. hostname -F /etc/hostname 으로 적용


3. reboot

반응형
반응형

출처 : http://uiandwe.tistory.com/908



13.04 버전은 기존의 버전들과 달리 계정 설정에 대한 파일의 위치가 변경되었습니다.


1. 먼저 root 계정을 활성화 시켜야 합니다.

$ sudo passwd root

현재 계정의 비번.

root 계정의 비번

root 계정 비번 확인



2. $ sudo vi /etc/lightdm/lightdm.conf/10-ubuntu.conf

한 다음 아래를 추가 시켜 줍니다.

greeter-session=unity-greeter

greeter-show-manual-login=true

autologin-user=root (이부분은 빼도 상관없습니다. 넣으시면 부팅시 자동으로 root 로 로그인 됩니다.)



3. $ reboot


리부팅을 한 다음 로그인 창이 나올때 계정명을 root 로 한다음 설정한 비번을 넣으면 root 로 로그인 가능합니다.


반응형
반응형

우선 우분투에 SSH 패키지가 깔려있는지 알아보는 것이 우선.
sudo dpkg -l | grep ssh

혹은 ssh 리스너가 떠 있는지 알아봐야 한다.
sudo netstat -lntp


아래의 경우는 ssh 패키지도 안 깔려 있고 ssh가 안깔려 있어서 22포트에 리스너가 없는 상태이다.

 



sudo apt-get install ssh
로 ssh를 설치하자.




openssh-server
ssh
ssh-import-id

세개의 패키지가 추가로 설치되어 있는 것을 확인할 수 있다.



리스너를 확인해본 결과 : : : 22 로 sshd가 리스너 가 동작중인 것을 확인 할 수 있다.





이제 Putty등의 터미널을 통해서 ssh로 우분투에 접속이 가능하다.
ifconfig 를 통해 우분투의 ip 주소를 확인한 다음에 접속해보자.




잘 접속이 되는 것을 확인할 수 있다.

반응형
반응형


이 모든 것은 VM이 네트워크가 가능하다는 전재하에 진행해야 합니다.





초기에 영어로 되어 있는 우분투를 사용하겠다면 크게 상관은 없지만 만약 아래와 같은 한글로 된 우분투를 사용하고 싶다면 몇 가지 설치와 설정을 해줘야 하는 부분이 있다.

 

 


-----------------------------------------------------------------------------------------------------------------------------------

우선 System -> Administration -> Language Support로 가보자





이후 왼쪽 상단의 Language Support 부분 에서 install/Remove Language 을 클릭해서 Korean을 찾은 뒤 install(apply Change) 하자



그러면 비밀번호를 치라고 나오는데 로그인한 해당 아이디의 비밀번호를 치면 되겠다.
아래 화면은 설치중인 화면이다.



그렇게 되면 아래와 같이 한국어가 새롭게 생기게 되는데 비활성화 되어 있다. 이 한국어를 잡고 English 위로 드레그 해서 올리자.



아래와 같이 활성화가 된다!
그 다음에 Apply System-Wide 한번 클릭해주자.
그 뒤에 마지막으로 Keyboard input method system에서 nabi로 바꿔주는 것을 잊으면 안된다.



그 다음 Regional Formats 탭을 눌러서 English(United States) 부분을 한국어로 바꿔준 뒤 Apply System-Wide를 눌러주자.



자 이제 설정이 끝났고 재부팅을 해보면 한글로 메뉴 등이 표시된다.
폴더명을 한글로 바꿀 것인지는 사용자가 선택하면 된다.



메뉴들이 한글로 바뀐 것을 확인할 수 있다.




터미널을 열어서 확인해보니 한글로 입력 또한 가능하다.
우분투에서는 한/영키가 아닌 Shift + Space 키가 한영 변환키이니 참고할 것.
또한 한글로 입력이 되지 않을 경우 시스템 -> 관리 -> 언어 에서 키보드 입력 시스템을 nabi로 설정해 놓았는지 반드시 확인해야 한다.
아래 그림 파일에서 시계 옆쪽에 나비 모양이 이나 혹은 ㅎ A 모양이 있어야지 제대로 설치된 것이다.




반응형
반응형


현재 나와 있는 리눅스 중에서도 인기가 많은 우분투 11.04가 릴리즈 됐다. 
하드 유저가 아니라 한번 설치해보고 간단히 셋팅해보는 것에 의의를 두고 VMware에 설치해보기로 했다.

설치파일은 해당 주소에서 Get Ubuntu 부분을 눌러서 32bit든 64bit던 알아서 iso 파일로 받아서 설치.
http://www.ubuntu.com/




Download and install로



우선 32bit 버젼을 다운 받아서 설치해보자.




예전에 받았던 버젼들도 같이 있음. 11.04 iso 파일을 받았으니 VMware에서 설치를 해보자.




VMware Workstation 에서 New Virtual Machine으로 새로운 VM을 생성해봅시다.


k-1

Typical과 Custom이 있는 Typical로 하면 간단하게 다음다음만 하면 설치 할 수 있습니다.
하지만 그럼 심심하므로 Custom으로 약간의 하드웨어 셋팅을 다르게 줘 봅시다.
참고로 현재 나의 컴퓨터 하드웨어 사양은

CPU : Intel Core i-5(2세대) 2500 (샌디브릿지)
MainBoard : P8H67-M
RAM : DDR3 16G PC3 - 10600
HDD : 1TB
--------------------------------------------------------------

복잡한거 싫어한다면 Typical로 하여서 Next 만 열라 눌러주면 된다.




Next 를 눌러준다.




Ubuntu iso 파일을 CD로 구워놨다면 Install disc.
하드에 그냥 iso 파일로 설치하려 한다면 Installer disc image file(iso)로 iso 파일만 지정해주면 된다.
ESX나 ZEN과는 달리 VMware는 iso 파일만 있으면 바로 설치가 가능하다는 이 점이 매우 편리하다.




User name에는 Ubuntu를 처음 시작할 때 사용할 default username을 적어주면 된다.
Password역시 해당 유저의 비밀번호.



Virtual Machine의 name은 VMware가 인식할 식별자 이름이 되겠다. 설치한 이후에 탭에 표시될 것이다.
Location은 하드웨어에 VM을 어디에다가 설치할 것인가에 대한 Path를 명시해주는 것이다.
원래는 default로 설정되어 있는데 개인이 편한 위치에 알아서 설치하면 됨.



그 다음은 CPU의 Core 혹은 숫자를 정해야 한다.
default는 싱글 프로세서로 되어 있지만 내 CPU는 쿼드 코어이기 때문에 그냥 대충 VM에 더블 코어로 설정했다.
물론 그 이상을 주는 것도 가능하다. 하지만 현재 하드웨어의 한계를 넘어서는 설정을 하면 의미가 없으므로 명심할 것.





램과 하드용량이 파격적으로 많은 관계로 VM에 램을 무려 4G나 할당하기로 한다.
Default는 512MB로 되어 있다. 보통 PC는 2~4기가 정도의 램을 사용하므로 512~1기가 정도 할당하면 적당할 듯 하다.
아래 그림에서도 확인할 수 있듯이 자신의 하드웨어의 최고 용량(현재 16GB)이 파란색으로 표시된다.
즉 이상으로 올리는 건 추천하지 않는다는 것이다. 그렇다고 노란색으로 표시된 이하를 주는 것도 추천하지 않는다.
(즉 많이 할당한다고 그렇게 빠른 것에 대해 체감하기 힘드므로 대충 설정하면 된다)




그 다음은 골치아픈 Network Type의 설정이다.
일단 내가 이해 하고 있는 바로 아래의 셋팅의 내용은 (뭐 정확하지는 않을 수 있다 ㅡㅡ...)
일단 Host 컴퓨터에서만 쓸 것이라면 NAT로 설정하고 범용적으로 다른 컴퓨터에서도 putty등으로 접속해서 사용할 것이라면
Use bridged Networking으로 설정하도록 하자. (Default는 NAT로 되어 있음.)

1. Use bidged networking
: 라우터에서 혹은 공유기에서 아이피를 할당된다. VM이 현재 Host컴퓨터와 같은 레벨의 네트워크 주소를 같는다.
외부 컴퓨터에서 해당 VM에 바로 접근할 수도 있다. 만약 내가 IP를 할당할 수 있는 라우터를 가지고 있고
여러개의 IP주소를 할당받아 VM에 할당할 수 있는 A,B,C 등의 클래스 네트워크 IP 주소가 있다면 VM은 그 중 한개의 IP를 할당 받을 것이다. 
ex) 현재 내 Host 컴퓨터가 10.10.10.120 이라고 한다면, VM도 10.10.10.xxx 대의 IP 주소를 라우터에서 할당받게 된다.

2. Use network address translation (NAT)
: Host 컴퓨터의 사설 네트워크가 된다. 해당 VM은 Host 컴퓨터(현재 나의 경우는 Windows 7)의 네트워크를 통해서 해당 VM에
접속해야 하며 외부 컴퓨터에서 해당 VM에 Direct로 접근할 수 없다.
ex) 현재 내 Host 컴퓨터가 10.10.10.120이라고 한다면 VM은 192.168.x,x 로 시작하는 사설 네트워크를 갖게 된다.

3. Use Host-only networking
: Host 컴퓨터의 사설 네트워크.

4. DO not use a network connection
: 네트워크를 연결 안함.



그 다음은 I/O Controller Types이 되겠다.
이건 ATAPI를 쓰거나 SAS를 써야 한다라고 주장하지 않는다라면 Default로 진행하도록 하자.




그 다음은 Disk의 종류를 고를 차례다.
크게 하드디스크에 할당받아서 가상디스크를 사용할 것인가.
아니면 실제로 하드웨어를 장착해서 VM에게 마운트 해줄 것인가는 사용자가 정하면 된다.

첫 번째는 가상디스크를 새로 만들어서 하는 것이고 두번재는 이미 만들어져 있는 가상디스크를 사용하는 것.
마지막은 물리적 하드웨어를 장착해 줘야 한다. 보통은 VM마다 가상디스크를 사용하게 하므로 새롭게 만들겠다.
Default는 Create a new virtual disk로 되어 있다.



하드 디스크 타입도 IDE방식을 테스트 해봐야 하는 경우 아니라면 SCSI로 진행하도록 하자.





가상하드의 용량은 그다지 크게 필요 없으므로 기본인 20기가를 할당하도록 하겠다.
하드내에 정적으로 용량을 잡을 지 동적으로 잡아서 싱글로 혹은 멀티파일로 관리할지는 사용자가 선택하면 된다.



마지막으로 우분투 운영체제를 저장할 vmdk 파일명을 정한다.
One 20GB disk 파일로 아까 지정한 location에 저장될 것이다.




이제 모든 준비가 끝났다. 마지막으로 현재 셋팅한 내용을 확인해보도록 하자.







우분투 11.04가 설치되고 있다.




우분투 11.04에서 인스톨시 설정해주는 부분은 키보드 레이아웃 한개로 줄어들었다.
키보드는 korea, Republic of 그리고 각자 키보드에 맞게 추가로 선택해주고 Forward를 클릭하면 끝이다.
나머지는 다 default로 셋팅되고 기다리기만 하면 끝난다.
키보드 레이아웃을 선택하는 부분 아래쪽에 재미있게도 셋팅하는 도중에도 인스톨은 되고 있다.

 


설치가 끝나면 재부팅을 하고 아래와 같은 로그인 화면이 뜬다.
처음 설정했던 아이디를 클릭하고 패스워드를 입력하면 끝!
우분투 설치가 최종 완료 되었다!



처음 우분투를 설치하면 영어로 되어 있기 때문에
다음으로는 한글로 언어팩 설치 및 한글 입력이 가능하도록 셋팅하는 것을 해보도록 하자.

반응형

+ Recent posts