반응형

DB를 설치하기 전 (사실 설치를 했지만, 에러나서 실패한건 비밀) 용도별 파일시스템을 만들기로 했다. 파일시스템을 구축해야 하는 이유는 용도별 용량을 설정해주기 위해서다. 이게 무슨말일까? 파일 시스템을 별도로 사용하지 않고, 한 폴더를 여러 곳에서 사용한다면 어느 곳에서 많이 쓰고 있는지 어디가 과하게 잡혀 있는지 모르게 될 것인다. (진짜?)

사실 회사에서 본 폴더 구조인데 왜 이렇게 복잡하게 설정하고 쓰고 있나 몰랐는데, 막상 구축하려니까 그들의 고뇌가 느껴졌다. 스고이.

일단 내가 구성할 파일시스템 구성은 /sw /log /arc /work 이다. 각각 파일시스템의 용도는 이렇다.

/sw : 데이터베이스 관련 엔진들이 설치될 공간
/log : 데이터베이스 각종 log 파일이 떨어질 공간
/arc : 오라클 아카이브 파일이 떨어지게될 공간
/work : 공유메모리로 여러 쉘 스크립트 작성들 여러 노드들과 공유하게될 폴더 (이건 그룹 볼륨을 해야될것 같은데 어려울것 같음)

이 글을 쓰기전까기 많은 노력들이 있었다. 파티션을 잘못 지워서 OS 를 다시 설치하기도 하였다. 그 덕분에 잘되던 alien 패키지도 동작을 하지 않는다.. so many 숙제 발생..

일단, log 파일을 15G로 설정할 예정이다. log 주제에 너무 많긴 하지만 파티션을 쪼개기 귀찮은건 안 비밀이다. 나중에 사용량을 봐서 줄여야겠다.

#1 파티션 확인하기
fdisk -l

root@DevOps:~# fdisk -l
Disk /dev/sda: 465.78 GiB, 500107862016 bytes, 976773168 sectors
Disk model: Samsung SSD 860 
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x12dd99c9

Device     Boot   Start       End   Sectors   Size Id Type
/dev/sda1  *       2048   1050623   1048576   512M 83 Linux
/dev/sda2       1052670 976771071 975718402 465.3G  5 Extended
/dev/sda5       1052672 976771071 975718400 465.3G 83 Linux


Disk /dev/sdb: 14.94 GiB, 16013942784 bytes, 31277232 sectors
Disk model: SanDisk SSD i100
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x6443471b

Device     Boot   Start      End  Sectors  Size Id Type
/dev/sdb1          2048  1050623  1048576  512M 83 Linux
/dev/sdb2       1052670 31277055 30224386 14.4G  5 Extended
/dev/sdb5       1052672 31277055 30224384 14.4G 83 Linux


파일시스템을 확인할 수 있는 명령어이다. /dev/sda1 을 보면 '*' 이 찍힌 것을 확인할 수 있는데, 이건 OS 관련 부팅 시스템이 설치된 공간임을 뜻한다. 만약 저걸 지우고 싶다? 그러면 재부팅이 안되며, 여러분의 소중한 시간은 삭-제와 만성 스트레스는 보너스다.

솔직히 저걸로 보면 뭔가 어질어질하다. 남들하게는 그럴싸하게 보이는 효과가 있으나, 내 머리가 어질어질해지는 효과도 추가 데미지이다. 우리는 그들이 내 모니터를 쳐다 보지 않으면, lsblk 명령어로 아주 편하게 파악하자.

lsblk

root@DevOps:~# lsblk
NAME   MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda      8:0    0 465.8G  0 disk 
├─sda1   8:1    0   512M  0 part 
├─sda2   8:2    0     1K  0 part 
└─sda5   8:5    0 465.3G  0 part /
sdb      8:16   0  14.9G  0 disk 
├─sdb1   8:17   0   512M  0 part 
├─sdb2   8:18   0     1K  0 part 
└─sdb5   8:21   0  14.4G  0 part 
sr0     11:0    1  1024M  0 rom


결과를 확인해보면, sda와 sdb가 2개로 나온것을 볼 수 있는데 저건 실제로 PC에 장착되어 있는 디스크를 뜻한다. 나도 몰랐는데 이번에 확인해보니 나는 2개의 디스크가 노트북에 장착되어 있었다. (왜지?) 고로, sda 하드디스크 1개와 sdb 하드디스크 1개 그러면 합이 총 몇 개 일까요? 자, 그럼 이제 log 파일을 등록해보자.

lsblk를 통해 여러 파티션이 나누어져 있다는 사실이 학인되었다. 하지만, df -h 명령어를 확인해보면 전부 사용되지 않고 있다는 사실을 알 수 있다. 고로 놀고있는 놈이 있다는 사실을 알 수 있다. 회사의 부장님들이 우리가 노는 꼴을 못 보는 것처럼 우리도 이 놈들을 일하게 해야되는 의무가 있다.

root@DevOps:/mnt# df -h
Filesystem      Size  Used Avail Use% Mounted on
udev            1.9G     0  1.9G   0% /dev
tmpfs           383M  1.7M  382M   1% /run
/dev/sda5       457G  9.6G  425G   3% / # <===== 마운트된 파티션
tmpfs           1.9G     0  1.9G   0% /dev/shm
tmpfs           5.0M  4.0K  5.0M   1% /run/lock
tmpfs           1.9G     0  1.9G   0% /sys/fs/cgroup
tmpfs           383M   20K  383M   1% /run/user/1000


/dev/sda5 파티션만 열일 하는 것이 확인 되었다. 오늘은 /dev/sdb5에게 /log 폴더를 떠 맡기기로 했다.

#2 파일시스템 마운트
mkfs -t ext4 /dev/sdb5

root@DevOps:~# mkfs -t ext4 /dev/sdb5
mke2fs 1.45.5 (07-Jan-2020)
/dev/sdb5 contains a ext4 file system
	created on Sat Apr 30 22:55:49 2022
Proceed anyway? (y,N)


확인된 디스크를 리눅스 OS가 쓸 수 있도록 포맷하는 과정이다. 나는 이미 포맷되어 있는데 또 할꺼냐고 물어봐서 'N'을 눌러주었지만, 'y'를 눌러주면 수많은 로그가 화면에 찍힐 것이다. 이때 강한 어필을 하고 싶다면, y를 누르고 기지개를 키면서 화장실을 가보자. 그럼 당신이 무언가를 열심히 하고 있다고 생각할 것이다.

이 후에 mount 시킬 폴더를 만들어 보자 mkdir /log 디렉토리를 만드는 명령어이다.

자 그럼 마운트를 해볼까?

root@DevOps:/# mount -t ext4 /dev/sdb5 /lot
mount: /lot: mount point does not exist.


what thu fxxx... 역시 한 번에 성공하지 않는 것은 국룰인가보다. 해결 방법을 찾아보니 /etc/mnt 하위에 log 폴더를 만들라는 것이었다. 하지만 난 그 방식이 맘에 들지 않아 ! 다른 방법으로 시도 해보기로 한다.

(나중에 확인해보니 오타가 있었음)

mount /dev/sdb5 /log

root@DevOps:/mnt# mount /dev/sdb5 /log


아무런 이벤트가 없다. 잘 되거야? 너? 너 뭐돼? 확인 해보자.

root@DevOps:/mnt# df -h
Filesystem      Size  Used Avail Use% Mounted on
udev            1.9G     0  1.9G   0% /dev
tmpfs           383M  1.7M  382M   1% /run
/dev/sda5       457G  9.6G  425G   3% /
tmpfs           1.9G     0  1.9G   0% /dev/shm
tmpfs           5.0M  4.0K  5.0M   1% /run/lock
tmpfs           1.9G     0  1.9G   0% /sys/fs/cgroup
tmpfs           383M   20K  383M   1% /run/user/1000
/dev/sdb5        15G   37M   14G   1% /log <= 짜잔

드디어 됐다... 이 틀만의 삽집이 빛을 발휘하는 순간이다. 자 그럼 끝 ! 이 아니라 mount 한 파일시스템은 재부팅하면 자동으로 활성화 되지 않는다. 즉, 오늘 퇴근하면 내가 다시 부를때까지 출근하지 않는다는 것이다. 헬조선에서 그 꼴은 볼 수 없지. 내가 부르지 않아도 알아서 출근하도록 설정을 해주자.

cat /etc/fstab

root@DevOps:/etc# cat fstab
# /etc/fstab: static file system information.
#
# Use 'blkid' to print the universally unique identifier for a
# device; this may be used with UUID= as a more robust way to name devices
# that works even if disks are added and removed. See fstab(5).
#
# <file system> <mount point>   <type>  <options>       <dump>  <pass>
# / was on /dev/sda5 during installation
UUID=5eae71cc-c1e4-4d92-a182-7b65fc2fd519 /               ext4    errors=remount-ro 0       1
# /boot/efi was on /dev/sda1 during installation
UUID=F06D-FEA2  /boot/efi       vfat    umask=0077      0       1
/swapfile                                 none            swap    sw              0       0
/dev/sdb5 /log ext4 defaults 0 0 #2022-05-01 추가


cat /etc/fstab 명령어를 실행하면, /dev/sdb5가 빠진 구성이 확인될 것이다. 그럼 재부팅 된 후에도 잘 작동되는지 확인하면 정말로 끝이난다. 지금은 귀찮으니.. 다음에 확인해보도록 하자. 아래의 글이 작성된다면 한 번에 성공하지 못한 것이다.

재부팅 후 이야기
성-공

반응형

'OS > Linux' 카테고리의 다른 글

[Ubuntu] /dev/loop0 - 좌충우돌 DB서버 구축일기 -  (0) 2022.04.30
[Ubuntu] 우분투 df, du  (0) 2022.03.24
[Ubuntu] 우분투 호스트네임 변경  (5) 2022.03.12
반응형

DB서버를 만들기 위해 몇가지 확인 하던 중 상당히 거슬리는 녀석을 만났다. 바로 /dev/loopN 

root@homesystem:/# df -h
Filesystem      Size  Used Avail Use% Mounted on
udev            1.9G     0  1.9G   0% /dev
tmpfs           382M  1.7M  381M   1% /run
/dev/sda5       457G   13G  421G   3% /
tmpfs           1.9G  8.9M  1.9G   1% /dev/shm
tmpfs           5.0M  4.0K  5.0M   1% /run/lock
tmpfs           1.9G     0  1.9G   0% /sys/fs/cgroup
/dev/loop0      128K  128K     0 100% /snap/bare/5
/dev/loop1       62M   62M     0 100% /snap/core20/1434
/dev/loop2       66M   66M     0 100% /snap/gtk-common-themes/1519
/dev/loop3       56M   56M     0 100% /snap/core18/2344
/dev/loop4      249M  249M     0 100% /snap/gnome-3-38-2004/99
/dev/loop5       52M   52M     0 100% /snap/snap-store/518
/dev/loop6       65M   65M     0 100% /snap/gtk-common-themes/1514
/dev/loop7       56M   56M     0 100% /snap/core18/2284
/dev/loop8       62M   62M     0 100% /snap/core20/1405
/dev/loop9       55M   55M     0 100% /snap/snap-store/558
/dev/loop10     219M  219M     0 100% /snap/gnome-3-34-1804/77
/dev/loop11      45M   45M     0 100% /snap/snapd/15534
/dev/loop12      44M   44M     0 100% /snap/snapd/15177
/dev/loop13     219M  219M     0 100% /snap/gnome-3-34-1804/66
/dev/sda1       511M  4.0K  511M   1% /boot/efi
tmpfs           382M   28K  382M   1% /run/user/1000

 

/dev/loop 는 뭘까? 검색을 해보니 loop 디바이스라고 많이 불리오고 있었다. 뭐하는 놈인지 알아보자.

Unix 및 Linux와 같은 운영체제에서 파일은 루프 장치를 사용하여 블록 파일로 액세스 할 수 있습니다. 이러한 시스템의 RAM 점유와 관련이 없습니다. '/dev/loop' 장치는 파일 시스템 이미지가 있는 파일을 블록 장치인 것처럼 취급합니다. 스냅패키지가 그런 방슥으로 생성되기 때문에 loop device는 스냅입니다. 라고 한다. 영문을 그냥 번역했더니 어질어질하다.

 

그래서 지원도 되는거니?

 

어디에서 명확한 설명이나 답변이 없다. 그래서 그냥 다해보기로 했다. 어차피 재설치하면 그만이야.

 

#1 df -h 명령어 입력시 꼴보기 싫은 녀석 제외하는 방법

df -h -x squashfs -x tmpfs

root@homesystem:/var/lib/snapd/snaps# df -h -x squashfs -x tmpfs
Filesystem      Size  Used Avail Use% Mounted on
udev            1.9G     0  1.9G   0% /dev
/dev/sda5       457G   13G  421G   3% /
/dev/sda1       511M  4.0K  511M   1% /boot/efi

 

저걸 언제 다 외워서 쓸까? 지성인 답게 편리한 방법을 생각해보자...

 

#2 냅다 지워버리기

sudo apt autoremove --purge snapd

root@homesystem:~# sudo apt autoremove --purge snapd
패키지 목록을 읽는 중입니다... 완료
의존성 트리를 만드는 중입니다       
상태 정보를 읽는 중입니다... 완료
다음 패키지를 지울 것입니다:
  chromium-codecs-ffmpeg-extra* gstreamer1.0-vaapi* libfwupdplugin1* libgstreamer-plugins-bad1.0-0* libllvm11* libva-wayland2* snapd*
0개 업그레이드, 0개 새로 설치, 7개 제거 및 34개 업그레이드 안 함.
이 작업 후 232 M바이트의 디스크 공간이 비워집니다.
계속 하시겠습니까? [Y/n] y
(데이터베이스 읽는중 ...현재 195719개의 파일과 디렉터리가 설치되어 있습니다.)
chromium-codecs-ffmpeg-extra (1:85.0.4183.83-0ubuntu0.20.04.2)를 제거합니다...
gstreamer1.0-vaapi:amd64 (1.16.2-2)를 제거합니다...
libfwupdplugin1:amd64 (1.5.11-0ubuntu1~20.04.2)를 제거합니다...
libgstreamer-plugins-bad1.0-0:amd64 (1.16.2-2.1ubuntu1)를 제거합니다...
libllvm11:amd64 (1:11.0.0-2~ubuntu20.04.1)를 제거합니다...
libva-wayland2:amd64 (2.7.0-2)를 제거합니다...
snapd (2.54.3+20.04.1ubuntu0.2)를 제거합니다...
Processing triggers for mime-support (3.64ubuntu1) ...
Processing triggers for gnome-menus (3.36.0-1ubuntu1) ...
Processing triggers for libc-bin (2.31-0ubuntu9.7) ...
Processing triggers for man-db (2.9.1-1) ...
Processing triggers for dbus (1.12.16-2ubuntu2.1) ...
Processing triggers for desktop-file-utils (0.24-1ubuntu3) ...
(데이터베이스 읽는중 ...현재 195581개의 파일과 디렉터리가 설치되어 있습니다.)
Purging configuration files for snapd (2.54.3+20.04.1ubuntu0.2) ...
Stopping snap-bare-5.mount
Stopping unit snap-bare-5.mount
Waiting until unit snap-bare-5.mount is stopped [attempt 1]
snap-bare-5.mount is stopped.
Removing snap bare and revision 5
Removing snap-bare-5.mount
Stopping snap-core18-2284.mount
Stopping unit snap-core18-2284.mount
Waiting until unit snap-core18-2284.mount is stopped [attempt 1]
snap-core18-2284.mount is stopped.
Removing snap core18 and revision 2284
Removing snap-core18-2284.mount
Stopping snap-core18-2344.mount
Stopping unit snap-core18-2344.mount
Waiting until unit snap-core18-2344.mount is stopped [attempt 1]
snap-core18-2344.mount is stopped.
Removing snap core18 and revision 2344
Removing snap-core18-2344.mount
Stopping snap-core20-1405.mount
Stopping unit snap-core20-1405.mount
Waiting until unit snap-core20-1405.mount is stopped [attempt 1]
snap-core20-1405.mount is stopped.
Removing snap core20 and revision 1405
Removing snap-core20-1405.mount
Stopping snap-core20-1434.mount
Stopping unit snap-core20-1434.mount
Waiting until unit snap-core20-1434.mount is stopped [attempt 1]
snap-core20-1434.mount is stopped.
Removing snap core20 and revision 1434
Removing snap-core20-1434.mount
Stopping snap-gnome\x2d3\x2d34\x2d1804-66.mount
Stopping unit snap-gnome\x2d3\x2d34\x2d1804-66.mount
Waiting until unit snap-gnome\x2d3\x2d34\x2d1804-66.mount is stopped [attempt 1]
snap-gnome\x2d3\x2d34\x2d1804-66.mount is stopped.
Removing snap gnome-3-34-1804 and revision 66
Removing snap-gnome\x2d3\x2d34\x2d1804-66.mount
Stopping snap-gnome\x2d3\x2d34\x2d1804-77.mount
Stopping unit snap-gnome\x2d3\x2d34\x2d1804-77.mount
Waiting until unit snap-gnome\x2d3\x2d34\x2d1804-77.mount is stopped [attempt 1]
snap-gnome\x2d3\x2d34\x2d1804-77.mount is stopped.
Removing snap gnome-3-34-1804 and revision 77
Removing snap-gnome\x2d3\x2d34\x2d1804-77.mount
Stopping snap-gnome\x2d3\x2d38\x2d2004-99.mount
Stopping unit snap-gnome\x2d3\x2d38\x2d2004-99.mount
Waiting until unit snap-gnome\x2d3\x2d38\x2d2004-99.mount is stopped [attempt 1]
snap-gnome\x2d3\x2d38\x2d2004-99.mount is stopped.
Removing snap gnome-3-38-2004 and revision 99
Removing snap-gnome\x2d3\x2d38\x2d2004-99.mount
Stopping snap-gtk\x2dcommon\x2dthemes-1514.mount
Stopping unit snap-gtk\x2dcommon\x2dthemes-1514.mount
Waiting until unit snap-gtk\x2dcommon\x2dthemes-1514.mount is stopped [attempt 1]
snap-gtk\x2dcommon\x2dthemes-1514.mount is stopped.
Removing snap gtk-common-themes and revision 1514
Removing snap-gtk\x2dcommon\x2dthemes-1514.mount
Stopping snap-gtk\x2dcommon\x2dthemes-1519.mount
Stopping unit snap-gtk\x2dcommon\x2dthemes-1519.mount
Waiting until unit snap-gtk\x2dcommon\x2dthemes-1519.mount is stopped [attempt 1]
snap-gtk\x2dcommon\x2dthemes-1519.mount is stopped.
Removing snap gtk-common-themes and revision 1519
Removing snap-gtk\x2dcommon\x2dthemes-1519.mount
Stopping snap-snap\x2dstore-518.mount
Stopping unit snap-snap\x2dstore-518.mount
Waiting until unit snap-snap\x2dstore-518.mount is stopped [attempt 1]
snap-snap\x2dstore-518.mount is stopped.
Removing snap snap-store and revision 518
Removing snap-snap\x2dstore-518.mount
Stopping snap-snap\x2dstore-558.mount
Stopping unit snap-snap\x2dstore-558.mount
Waiting until unit snap-snap\x2dstore-558.mount is stopped [attempt 1]
snap-snap\x2dstore-558.mount is stopped.
Removing snap snap-store and revision 558
Removing snap-snap\x2dstore-558.mount
Stopping snap-snapd-15177.mount
Stopping unit snap-snapd-15177.mount
Waiting until unit snap-snapd-15177.mount is stopped [attempt 1]
snap-snapd-15177.mount is stopped.
Removing snap snapd and revision 15177
Removing snap-snapd-15177.mount
Stopping snap-snapd-15534.mount
Stopping unit snap-snapd-15534.mount
Waiting until unit snap-snapd-15534.mount is stopped [attempt 1]
snap-snapd-15534.mount is stopped.
Removing snap snapd and revision 15534
Removing snap-snapd-15534.mount
Discarding preserved snap namespaces
Final directory cleanup
Removing extra snap-confine apparmor rules
Removing snapd cache
Removing snapd state

 

잘한건지 모르겠다, 사실 재설치하면 그만이야를 외쳤지만 재설치하는건 여간 귀찮은게 아니기 때문이다. 일단 이런 고민은 미래의 나에게 맡기기로 하고 df -h를 다시 실행해보자.

root@homesystem:~# df- h

명령어 'df-' 을(를) 찾을 수 없습니다. 다음 명령어로 시도하시겠습니까:

  deb dfcoreutils의 명령어 ' (8.30-3ubuntu2)'
  deb dfcdfc의 명령어 ' (3.1.1-1)'

Try: apt install <deb name>

 

아..... 개망했다. CentOS 기본 명령어 조차 실행이 안된다. 하지만 걱정마라 내 손은 정확하지 않으니, 옵션이 잘못되었다. 휴

root@homesystem:~# df -h
Filesystem      Size  Used Avail Use% Mounted on
udev            1.9G     0  1.9G   0% /dev
tmpfs           382M  1.7M  381M   1% /run
/dev/sda5       457G   11G  423G   3% /
tmpfs           1.9G   11M  1.9G   1% /dev/shm
tmpfs           5.0M  4.0K  5.0M   1% /run/lock
tmpfs           1.9G     0  1.9G   0% /sys/fs/cgroup
/dev/sda1       511M  4.0K  511M   1% /boot/efi
tmpfs           382M   28K  382M   1% /run/user/1000

 

깔끔하게 지워졌다. loop device를 지우고 보니 tmpfs 라는 녀석이 거슬리기 시작했다. 하지만 난 인자한 사람이니 쟤는 살려두기로 했다. 나중에 할 일이 너무 없거나 면접을 앞두게 된다면 loop device를 정리해서 올려야겠다는 다짐만 하고 끝마친다.

반응형
반응형

When ?

DB 서버에 오라클 관련 설치 파일을 업로드하거나 DB 관련 로그들이 쌓이는 경우를 확인하기 위해 df, du 등 메모리 관련 명령어를 사용한다. 이때 df는 전체적인 디스크 여유공간을 확인하고 du는 세부적인 파일이나 디렉토리의 메모리를 확인할 때 사용한다.

df (Disk Free)

리눅스 시스템 전체의 디스크 여유 공간을 확인하고 파일시스템, 디스크의 크기, 사용량, 남아있는 용량, 사용률, 마운트 지점 순으로 정보를 출력

oracle@homesystem:~$ df
Filesystem     1K-blocks     Used Available Use% Mounted on
udev             1921932        0   1921932   0% /dev
tmpfs             391084     1800    389284   1% /run
/dev/sda5      479151816 13886004 440856468   4% /
tmpfs            1955404        0   1955404   0% /dev/shm
tmpfs               5120        4      5116   1% /run/lock
tmpfs            1955404        0   1955404   0% /sys/fs/cgroup
/dev/loop1           128      128         0 100% /snap/bare/5
/dev/loop2         56960    56960         0 100% /snap/core18/2284
/dev/loop3         63488    63488         0 100% /snap/core20/1376
/dev/loop4         66432    66432         0 100% /snap/gtk-common-themes/1514
/dev/loop5         55552    55552         0 100% /snap/snap-store/558
/dev/loop7        224256   224256         0 100% /snap/gnome-3-34-1804/66
/dev/loop6         44672    44672         0 100% /snap/snapd/14978
/dev/loop8        254848   254848         0 100% /snap/gnome-3-38-2004/99
/dev/loop9         44800    44800         0 100% /snap/snapd/15177
/dev/loop10        52352    52352         0 100% /snap/snap-store/518
/dev/loop11       224256   224256         0 100% /snap/gnome-3-34-1804/77
/dev/loop12        66816    66816         0 100% /snap/gtk-common-themes/1519
/dev/sda1         523248        4    523244   1% /boot/efi
tmpfs             391080       52    391028   1% /run/user/1000
/dev/loop13        56960    56960         0 100% /snap/core18/2344

 

du(Disk Usage)

해당하는 파일 및 디렉토리의 디스크 크기를 확인하는 명령어

 

옵션

-s 용량의 합계 표시
-h 읽기 편하도록 용량 표시

oracle@homesystem:~$ cd $ORACLE_HOME

oracle@homesystem:/u01/app/oracle/product/11.2.0/xe$ du -s -h *
36K	apex
187M	bin
192K	config
56M	ctx
32K	dbs
116K	demo
32K	hs
7.7M	jdbc
1.7M	jlib
568K	ldap
65M	lib
24K	log
20M	md
704K	network
16M	nls
292K	odbc
372K	opmn
1.4M	oracore
480K	plsql
304K	precomp
46M	rdbms
24K	slax
324K	sqlplus
1.6M	xdk

 

반응형
반응형

호스트 네임

우분트의 호스트네임은 설치된 시스템 명령어를 나타낸다. 해당 명칭으로 실무자들끼리 의사소통이 이루어지니 간결하고 명확하게 이름을 짓는것이 중요하다.

 

1. 현재 호스트네임 확인하기

hostname

 

2. 루트 계정 접속

su
암호:

 

3. 루트 계정 접속 확인

id
uid=0(root) gid=0(root) 그룹들=0(root)

 

4. hostname 파일 편집

vi /etc/hostname

# (순서)
# dd 전체 삭제
# i 입력모드
# 호스트네임 입력
# ecs 명령어모드
# wq 저장 후 종료

 

5. 재부팅

반응형

+ Recent posts