CS스터디

[면접을 위한 CS 전공 지식 노트] 3장 운영체제

조찬국 2025. 1. 7. 00:28
728x90

1. 운영체제와 컴퓨터

1.1. 운영 체제의 역할과 구조

1.1.1. 운영 체제의 역할

1. CPU 스케줄링과 프로세스 관리: 프로세서에 CPU 할당 및 반환, 프로세서 생성 및 삭제

2. 메모리 관리: 프로세서에 메모리 할당 관리

3. 디스크 파일 관리: 보관 방법 관리

4. I/O 디바이스 관리: 마우스, 키보드와 컴퓨터 간 데이터 송수신 관리

 

운영 체제의 구조

 

드라이버: 하드웨어를 제어하는 소프트웨어

 

시스템콜 : 운영체제가 커널에 접근하기 위한 인터페이스이다.

유저 프로그램이 운영체제의 서비스를 받기 위해 커널 함수를 호출할때 사용된다.

 

 

 

메모리상에서 프로세스나 스레드가 운영체제로 어떠한 요청을 할 때 시스템 콜이라는 인터페이스와 커널을 거쳐 운영체제로 전달 한다. 시스템 콜은 추상화 계층으로 불리우는데, 네트워크나 DB와 같이 낮은 단계의 영역 처리에 대한 부분을 많이 신경 쓰지 않고 프로그램을 구현할 수 있다.

 

시스템 콜 작동시 modebit을 참고해서 유저모드와 커널 모드를 구분한다. 카메라, 키보드, 마우스 등 I/O 디바이스는 운영체제를 통해서만 작동해야하는 데 이는 컴퓨터 자원에 대한 직접 접근을 막기위한 행위이며, 이로인해 프로그램은 다른 프로그램으로부터 보호할 수 있다. 

 

이러한 방식은 유저모드와 커널모드의 변환으로써 커널모드인 경우에만 I/O 디바이스 등에 접근한다.

 

유저모드는 유저가 접근할 수 있는 영역이고,  커널모드는 모든 컴퓨터 자원에 접근할 수 있는 모드이다.

커널은 운영체제의 핵심 부분이자 시스템 콜 인터페이스를 제공한다. 메모리, 프로세스, 파일 시스템, I/O 디바이스, I/O 요청 관리 등 운영체제의 중추적인 역할을 한다. 

 

1.1.2. 컴퓨터시스템의구조 

● CPU:인터럽트에의해메모리에존재하는명령어를해석해서실행하는일꾼

● DMA컨트롤러:CPU의일을보조하는일꾼

● 메모리:전자회로에서데이터,상태등을기록하는장치(작업장)

● 타이머:특정프로그램에시간을다는역할

● 디바이스컨트롤러: IO디바이스들의작은CPU

● 로컬버퍼:디바이스에달려있는작은메모리

1.2.1. CPU(Central Processing Unit)

산술논리연산장치, 제어장치, 레지스터로 구성되어 있는 컴퓨터 장치

인터럽트에 의해 단순히 메모리에 존재하는 명령어를 해석해서 실행하는 일꾼

 

관리자 역할을 하는 운영체제의 커널이 프로그램을 메모리에 올려 프로세스로 만들면 일꾼인 CPU가 이를 처리한다.

 

제어장치

프로세스 조작을 지시하는 CPU의 한 부품이다.

입출력 장치 간 통신을 제어하고 명령어들을 읽고 해석하며 데이터 처리를 위한 순서를 결정한다.

 

레지스터

CPU 안에 있는 매우 빠른 임시기억장치를 가리킨다.

CPU에 직접 연결되어 있으므로 연산 속도가 메모리보다 수십 배에서 수백 배까지 빠르다.

CPU는 자체적으로 데이터를 저장할 방법이 없기 때문에 레지스터를 거쳐 데이터를 전달한다.

 

산술논리연산장치(Artihmetic Logic Unit)

덧셈, 뺄셈 같은 두 숫자의 산술 연산과 배타적 논리합, 논리곱 같은 논리 연산을 계산하는 디지털 회로

 

 

CPU의 연산처리 순서


(1) 제어장치가 메모리에 계산할 값을 로드한다. 레지스터에도 로드한다.

(2) 제어장치가 레지스터에 있는 값을 계산하라고 산술논리연산장치에 명령한다.

(3) 제어장치가 계산된 값을 다시 레지스터에서 메모리로 계산한 값을 할당한다.

 

인터럽트

어떤 신호가 들어왔을 때 CPU를 잠깐 정지시키는 것을 말한다.

키보드, 마우스 등 I/O 디바이스로 인한 인터럽트, 0으로 숫자를 나누는 연산에서의 인터럽트, 프로세스 오류 등으로 발생한다.

인터럽트가 발생되면 인터럽트 핸들러 함수가 모여 있는 인터럽트 벡터로 가서 인터럽트 핸들러 함수가 실행된다.

 

인터럽트 간에는 우선순위가 존재하고, 우선순위에 따라 실행되며, 인터럽트는 하드웨어 인터럽트, 소프트웨어 인터럽트 2가지로 나뉜다.

 

인터럽트 핸들러 함수
인터럽트가 발생했을 때 이를 핸들링하기 위한 함수, 커널 내부의 IRQ를 통해 호출되며 request_irq()를 통해 인터럽트 핸들러 함수를 등록할 수 있다.

 

하드웨어 인터럽트

키보드를 연결한다거나 마우스를 연결하는 일 등의 I/O 디바이스에서 발생하는 인터럽트를 말한다. 인터럽트의 실행을 중지하고, 운영체제의 시스템 콜틀 요청해서 원하는 디바이스로 향해 디바이스에 있는 작은 로컬 버퍼에 접근하여 일을 수행한다.

 

소프트웨어 인터럽트

소프트웨어 인터럽트는 트랩(trap)이라고도 한다.

프로세스 오류 등으로 프로세스가 시스템콜을 호출할 때 발동한다.

 

DMA 컨트롤러

I/O 디바이스가 메모리에 직접 접근할 수 있도록 하는 하드웨어 장치를 뜻한다.

CPU에만 너무 많은 인터럽트 요청이 들어오기 때문에, CPU부하를 막아주며 CPU의 일을 부담하는 보조 일꾼 역할을 한다.

하나의 작업을 CPU와 DMA 컨트롤러가 동시에 하는 것을 방지한다.

 

메모리

전자회로에서 데이터의 상태, 명령어 등을 기록하는 장치를 말하며, 보통 RAM(Random Access Memory)을 일컬어 메모리라고 한다.

CPU는 계산을 담당하고, 메모리는 기억을 담당한다. 공장에 비유하면 CPU는 일꾼이고, 메모리는 작업장이다. 작업장이 크면 클수록 창고에서 물건을 많이 가져다 놓고 많은 일을 할 수 있듯이 메모리가 크면 클수록 많은 일을 동시에 할 수 있다. 

 

타이머

몇 초 안에는 작업이 끝나야 한다는 것을 정하고 특정 프로그램에 시간제한을 다는 역할을 한다.

 

디바이스 컨트롤러

컴퓨터와 연결되어 있는 I/O 디바이스들의 작은 CPU를 말하고 옆에 붙어 있는 로컬 버퍼는 각 디바이스에서 데이터를 임시로 저장하기 위한 작은 메모리를 뜻한다.

 

2. 메모리

CPU는 메모리에 올라와 있는 프로그램의 명령어들을 실행할 뿐이다.

 

2.1. 메모리 계층

레지스터, 캐시, 메모리, 저장장치로 구성

 

레지스터 : CPU 안에 있는 작은 메모리, 휘발성, 속도 가장 빠름, 기억 용량이 가장 적다.

캐시 : L1,L2 캐시를 지칭한다. 휘발성, 속도 빠름, 기억 용량이 적다. L3캐시도 존재한다.

주기억장치 : RAM을 가리킨다. 휘발성, 속도 보통, 기억 용량이 보통이다.

보조기억장치 : HDD, SSD를 일컬을며 비휘발성, 속도 낮음, 기억 용량이 많다.

 

램은 하드디스크로부터 일정량의 데이터를 복사해서 임시 저장하고 이를 필요 시마다 CPU에 빠르게 전달하는 역할을 한다.

계층 위로 올라갈수록 가격은 비싸지는데 용량은 작아지고 속도는 빨라지는 특징이 있다.

 

왜 계층이 존재하는가? 경제성과 캐시때문이다.

16GB RAM이 16GB SSD보다 훨씬 비싸다.

 

일상생활 예시

게임을 실행하다 보면 '로딩 중'이라는 메시지가 나온다.

이는 하드디스크 또는 인터넷에서 데이터를 읽어 RAM으로 전송하는 과정이 아직 끝나지 않음을 의미한다.

 

2.2. 캐시

캐시는 CPU와 메모리 사이에 위치하며, 그 외에도 속도차이가 나는 계층간 중간역할을 한다. 이는 CPU와 메모리 사이의 속도 차이가 너무 크기 때문에 중간에 레지스터 계층을 둬서 속도 차이를 해결한다. 이러한 계층을 캐싱 계층이라고 한다.

 

캐시는 데이터를 미리 복사해 놓는 임시 저장소이자 빠른 장치와 느린 장치에서 속도차이에 따른 병목 현상을 줄이기 위한 메모리이다. 

 

지역성의 원리

캐시 계층을 두지 말고 캐시를 직접 설정할 때는 자주 사용하는 데이터를 기반으로 설정한다.

이렇게 자주 사용하는 데이터에 대한 근거는 공간 지역성과 시간 지역성 두개로 이루어져 있다. 

 

 

시간 지연성: 최근에 사용한 데이터에 다시 접근하려는 특성. 즉, for 문안의 변수 i에 계속해서 접근시 이 데이터인 변수 i가 최근에 사용된 데이터이므로 계속 접근해서 연산을 한다.

 

공간지역성: 최근 접급한 데이터가 위치한 공간에 접근하는 특성이다.

 

2.3. 캐시히트와 캐시미스

캐시에서 원하는 데이터를 찾으면 캐시히트, 아니면 캐시 미스이다. 

 

 

 

즉, 찾고자 하는 데이터가 캐시에 없으면 메모리에가서 데이터를 찾는 것을 캐시미스라고 한다.

캐시는 CPU내부 버스에서 작동하므로 캐시히트가 되면 훨씬 빠르지만, 메모리는 시스템 버스에서 작동하므로 훨씬 느리다.

 

2.4. 캐시 매핑

캐시매핑이란 캐시가 히트되기 위해 매핑하는 방법이다. CPU의 레지스터와 주 메모리(RAM) 간에 데이터를 주고받을 때를 기반으로 설명한다. 이때 메모리가 크고, 레지스터는 작기에 작은 레지스터가 캐시 계층으로써 역할을 하려면 이 매핑을 어떻게 하느냐가 중요하다. 

 

직접 매핑: 메모리가 1~100이 있고, 캐시가 1~10이 있다면 1:1~10 / 2:1~20 이런식으로 매핑한다. 처리가 빠르지만 충돌 발생이 잦다.

 

  • 메모리 블록 1~10 → 캐시 슬롯 1
  • 메모리 블록 1~20 → 캐시 슬롯 2
  • 이런 식으로 mapping된다.

 

 

연관 매핑: 순서를 일치시키지 않고 관련 있는 캐시와 메모리를 매핑한다. 충돌이 적지만 모든 블록을 탐색해야 해서 속도가 느리다.

 

집합 연관 매핑: 직접 매핑과 연관 매핑을 합쳐 놓은 것이다. 순서는 일치시키지만 집합을 둬서 저장하며 블록화 되어 있기 때문에 검색은 좀 더 효율적. 메모리가 1~100이 있고, 캐시가 1~10이 있다면 캐시 1~5에는 1~50의 데이터를 무작위로 저장시키는 것이다.

 

2.5. 웹 브라우저의 캐시

소프트웨어적인 캐시의 대표는 웹 브라우저의 작은 저장소 쿠키, 로컬저장소, 세션 스토리지가 있다. 

 

2.5.1. 쿠키

쿠키는 만료기한이 있는 키- 값 저장소이다. 쿠키를 설정할 때는 document.cookie로 쿠키를 볼 수 없게 httponloy 옵션을 거는 것이 중요하다. 

 

2.5.2. 로컬 저장소

로컬저장소는 만료기한이 없는 키 - 값 저장소이다. 5MB까지 저장가능하며, 클라이언트에서만 수정가능하다.

2.5.3. 세션 저장소

세션도 만료기한이 없는 키-값 저장소이다. 탭 단위로 세션 스토리지를 생성하는데, 탭을 닫을 때 해당 데이터가 삭제된다. 5MB 까지 저장이 가능하며 클라이언트에서만 값을 수정가능하다.

 

2.6. 데이터 베이스의 캐싱 계층 

데이터베이스 시스템을 구출할 때도 메인 데이터베이스 위에 레디스(redis) 데이터베이스 계층을 "캐싱 계층"으로 둬서 성능을 향상시킬 수 있다.

2.7 메모리 관리

2.7.1. 가상 메모리

 

가상 메모리는 컴퓨터가 실제로 이용가능한 메모리 자원을 추상화하여 이를 사용하는 사용자들에게 매우 큰 메모리로 보이게 하는 것을 말한다.

 

가상 메모리는 logical address라고도 하며, 실제 주소는 physical address라고 한다. 가상주소는 메모리 관리 장치(MMU)에 의해 실제 주소로 변환되며, 이로 인해 사용자는 실제주소를 의식할 필요 ㅇ벗이 프로그램을 구축할 수 있다.

가상메모리는 가상주소와 실제주소가 매핑되어있고 프로세스의 주소 정보가 들어 있는 "페이지 테이블"로 관리된다.

이때 속도향상을 위해 TLB를 사용한다.

 

가상 메모리의 최소 크기 단위: 페이지(page) / 실제 메모리의 최소 크기  단위: 프레임(frame)

 

TLB: 메모리와 CPU사이에 있는 주소변환을 위한 캐시이다. 즉, cpu가 페이지 테이블까지 가지 않도록 해서 속도를 향상시켜주는 캐시 계층이다.  

 

스와핑: 가상 메모리에는 존재하지만 실제 메모리인 RAM에 없으면 페이지 폴트(결함)이 발생하는데, 메모리에서 당장 사용하지 않는 영역을 하드디스크로 옮기고, 하드디스크의 일부분을 마치 메모리처럼 불러와 쓰는 것을 스와핑(swapping)이라고 한다. 이를 통해 페이지 폴트가 일어나지 않는 것처럼 만들수 있다.

 

스와핑 과정

1. 어떤 명령어가 유효한 가상 주소에 접근 -> 실제 ram에는 해당 주소가 없어 페이지 폴트 발생

2. 페이지 폴트 발생시 trap을 발생시켜 OS에 인터럽트를 걺으로써 알림

3. OS는 실제 디스크로부터 사용하지 않는 프레임을 찾음

4. 해당 프레임을 실제 메모리(ram)에 가져와서 페이지 교체 알고리즘을 기반으로 특정 페이지와 교체(스와핑 발생)

5. 페이지 테이블을 갱신시킨 후 해당 명령어를 다시 시작.

 

 

2.7.2. 스레싱(thrashing)

메모리의 페이지 폴트율이 높은 것을 의미하며,  컴퓨터의 심각한 성능 저하를 초래한다.

스레싱은 메모리에 너무 많은 프로세스가 동시에 올라가게 되면 스와핑이 많이 일어나서 발생하는 것이다.

 

페이지 폴트가 일어나면 CPU 이용률이 낮아진다.

CPU 이용률이 낮아지게 되면 운영체제는 "CPU가 한가한가?"라고 생각하여 가용성을 더 높이기 위해 더 많은 프로세스를  메모리에 올리게 된다. 이러한 상황이 악순환이 반복되면 스레싱이 일어나게 된다.

 

스레싱의 해결 방안

메모리를 늘리거나, HDD를 사용한다면 HDD를 SSD로 바꾸는 방법이 있다.

운영체제에서 이를 해결할 수 있는 방법은 작업 세트, PFF가 있다.

 

작업 세트(working set)

프로세스의 과거 사용 이력인 지역성을 통해 결정된 페이지 집합을 만들어서 미리 메모리에 로드하는 것이다.

미리 메모리에 로드하면 탐색에 드는 비용을 줄일 수 있고, 스와핑 또한 줄일 수 있다.

 

PFF(page fault frequency)

페이지 폴트 빈도를 조절하는 방법으로 상한선과 하한선을 만드는 방법

상한선에 도달한다면 프레임을 늘리고, 하한선에 도달한다면 프레임을 줄이는 것

 

메모리 할당

메모리에 프로그램을 할당할 때는 시작 메모리 위치, 메모리의 할당 크기를 기반으로 할당한다.

연속 할당과 불연속 할당으로 나뉜다.

 

연속 할당

메모리에 연속적으로 공간을 할당하는 것을 말한다.

메모리를 미리 나누어 관리하는 고정 분할 방식과 매 시점 프로그램의 크기에 맞게 메모리를 분할하여 사용하는 가변 분할 방식이 있다.

 

고정 분할 방식

메모리를 미리 나누어 관리하는 방식, 메모리가 미리 나뉘어 있기 때문에 융통성이 없다. 모든 프로세스가 들어가야하는 크기를 나누어서 대부분 내부 단편화가 발생한다.

 

가변 분할 방식

매 시점 프로그램의 크기에 맞게 동적으로 메모리를 나눠 사용한다.

내부 단편화는 발생하지 않고, 외부 단편화는 발생할 수 있다.

최초적합(first fit), 최적적합(best fit), 최악적합(worst fit)이 있다.

이름 설명
최초 적합 위쪽이나 아래쪽부터 시작해서 홀을 찾으면 바로 할당
최적 적합 프로세스의 크기 이상인 공간 중 가장 작은 홀부터 할당
최악 적합 프로세스의 크기와 가장 많이 차이가 나는 홀에 할당

 

내부 단편화 : 메모리를 나눈 크기보다 프로그램이 작아서 들어가지 못하는 공간이 많이 발생하는 현상
외부 단편화 : 메모리를 나눈 크기보다 프로그램이 커서 들어가지 못하는 공간이 많이 발생하는 현상
홀 : 할당할 수 있는 비어 있는 메모리 공간

 

불연속 할당

메모리를 연속적으로 할당하지 않는 불연속 할당은 현대 운영체제가 쓰는 방법으로 불연속 할당인 페이징 기법이 있다.

메모리를 동일한 크기의 페이지(보통 4KB)로 나누고 프로그램마다 페이지 테이블을 두어 이를 통해 메모리에 프로그램을 할당하는 것이다.

페이징 기법 말고도 세그멘테이션, 페이지드 세그멘테이션이 있다.

 

페이징

동일한 크기의 페이지 단위로 나누어 메모리의 서로 다른 위치에 프로세스를 할당한다.

홀의 크기가 균일하지 않은 문제가 없어지지만 주소 변환이 복잡해진다.

 

세그멘테이션

페이지 단위가 아닌 의미 단위인 세그먼트로 나누는 방식이다.

 

프로세스를 이루는 메모리는 코드 영역, 데이터 영역, 스택 영역, 힙 영역으로 이루어지는데, 코드와 데이터로 나누거나 코드 내의 작은 함수를 세그먼트로 놓고 나눌 수도 있다.

 

공유와 보안 측면에서 장점을 가지지만 홀 크기가 균일하지 않다는 단점이 있다.

 

페이지드 세그멘테이션

프로그램을 의미 단위인 세그먼트로 나눠 공유나 보안 측면에 강점을 두고 임의의 길이가 아닌 동일한 크기의 페이지 단위로 나누는 것

 

페이지 교체 알고리즘

메모리는 한정되어 있기 때문에 스와핑이 많이 일어난다.

스와핑은 페이지 교체 알고리즘 기반으로 스와핑이 일어나는데, 이러한 스와핑이 많이 일어나지 않게 해야한다.

 

오프라인 알고리즘(offline algorithm)

먼 미래에 참조되는 페이지와 현재 할당하는 페이지를 바꾸는 알고리즘, 가장 좋은 방법

그러나, 미래에 사용되는 프로세스를 우리가 알 수 있을까? 알 수 없다.

사용할 수 없는 알고리즘이지만 가장 좋은 알고리즘이므로 다른 알고리즘과의 성능 비교에 대한 상한 기준을 제공한다.

 

FIFO

FIFO(First In First Out)은 가장 먼저 온 페이지를 교체 영역에 가장 먼저 놓는 방법

 

LRU

LRU(Least Recent Used)는 참조가 가장 오래된 페이지를 바꾼다.

오래된 것을 파악하기 위해 각 페이지마다 계수기, 스택을 두어야 하는 문제점이 있다.

LRU를 구현할 때는 보통 두 개의 자료 구조로 구현한다. 해시 테이블, 이중 연결 리스트이다.

해시 테이블은 이중 연결 리스트에서 빠르게 찾을 수 있도록 쓰고, 이중 연결 리스트는 한정된 메모리를 나타낸다.

 

NUR

LRU에서 발전한 NUR(Not Used Recently) 알고리즘이 있다.

일명 clock 알고리즘이라고 하며 먼저 0과 1을 가진 비트를 둔다. 1은 최근에 참조되었고 0은 참조되지 않음을 의미한다.

시계 방향으로 돌면서 0을 찾고 0을 찾은 순간 해당 프로세스를 교체하고, 해당 부분을 1로 바꾸는 알고리즘이다.

 

LFU

LFU(Least Frequently Used)는 가장 참조 횟수가 적은 페이지를 교체한다.

많이 사용되지 않은 것을 교체한다.

 

3. 프로세스와 스레드

프로세스는(process) 컴퓨터에서 실행되고 있는 프로그램을 말하며, CPU 스케줄링의 대상이 되는 작업(task)이라는 용어와 같은 의미. 스레드는 프로세스 내 작업의 흐름을 지칭

프로그램이 메모리에 올라가면 프로세스가 되는 인스턴스화가 일어나고, 이후 운영체제의 CPU 스케줄러에 따라 CPU가 프로세스를 실행한다.

 

3.1. 프로세스와 컴파일 과정

프로세스는 프로그램이 메모리에 올라가 인스턴스화된 것을 말한다.

ex) 구글 크롬 프로그램을 두번 클릭하면 구글 크롬 프로세스로 변환되는 것

 

컴파일 과정

C언어를 기준으로 봤을때, 컴파일러가 컴파일 과정을 통해 컴퓨터가 이해할 수 있는 기계어로 번역하여 실행할 수 있는 파일을 만들게 된다.

전처리

1. 소스 코드의 주석을 제거하고 #include 등 헤더 파일을 병합하여 매크로를 치환한다.

 

컴파일러

오류 처리, 코드 최적화 작업을 하며 어셈블리어로 변환한다.

 

어셈블러

어셈블리어는 목적 코드로 변환된다. 이때 확장자는 운영체제마다 다른데 리눅스에서는 .o 파일이다.

 

링커

프로그램 내에 있는 라이브러리 함수 또는 다른 파일들과 목적 코드를 결합하여 실행 파일을 만든다.

실행 파일의 확장자 .exe 또는 .out이라는 확장자를 갖는다

 

라이브러리 - 동적/정적

 

정적 라이브러리:  빌드 시 라이브러리가 제공하는 모든 코드를 실행 파일에 넣는 방식

장점: 외부 환경에 대한 의존도가 낮다. / 단점: 코드 중복 등 메모리 효율성이 떨어진다.

 

동적 라이브러리: 프로그램 실행 시 필요할 때만 DLL이라는 함수 정보를 통해 참조하는 방식

장점: 메모리 효율성이 높다

단점: 외부 의존도가 높다.

 

3.2. 프로세스의 상태

 

3.2.1.  생성(create)

- 프로세스가 생성된 상태, 이 때 PCB 할당

- fork() / exec()로 생성

 

fork(): 부모 프로세스의 주소 공간을 그대로 복사하며, 새로운 자식 프로세스를 생성하는 함수. 부모의 주소공간만 복사할 뿐이고, 부모 프로세스의 비동기 작업은 상속하지 않는다.

 

exec(): 새롭게 프로세스 생성하는 함수

 

3.2.2. 대기(ready)

- 메모리가 충분하면 메모리를 할당받고 아니면 아닌 상태로 대기

- CPU 스케줄러로부터 CPU 소유권이 넘어오기를 기다리는 상태

 

3.2.3. 대기 중단(reday suspended)

- 메모리 부족으로 일시 중단된 상태

 

3.2.4. 실행(running)

- CPU 소유권과 메모리를 할당받고 인스트럭션을 수행 중인 상태

- CPU burst가 일어났다고도 표현

 

3.2.5. 중단 상태(blocked)

- 이벤트 발생 이후 기다리며 프로세스가 차단된 상태

- I/O 인터럽트로 인하여 많이 발생 -> 예를 들어 프린트 인쇄 버튼 을 누르면 프로세스가 잠깐 멈춘 듯한 느낌이 이상태이다.

 

3.2.6. 일시 중단 (blocked suspended)

- 대기 중단과 유사

- 중단된 상태에서 프로세스가 실행되려 했지만 메모리 부족으로 일시 중단된 상태

 

3.2.7. 종료 상태(terminated)

- 메모리와 CPU 소유권을 모두 놓고 가는 상태

- 비자발적 종료로 종료되는 경우도 있음 (부모가 자식을 강제로 종료)

 

3.3. 프로세스의 메모리 구조

- 다음 구조를 기반으로 프로세스에 적절한 메모리가 할당됨

프로세스의 메모리 구조

3.3.1. 동적영역 / 정적 영역

동적 영역 - 스택, 힙

정적 영역 - 데이터, 코드

스택은 위 주소(높은 주소)부터 할당, 힙은 아래 주소(낮은)부터 할당됨

 

3.3.2. 스택 (Stack)

  • 저장 내용: 지역 변수, 함수 호출 시 매개변수, 리턴 주소 등 저장.
  • 특징:
    • 함수 호출 시 데이터를 쌓아 올리는 구조(LIFO, Last In First Out).
    • 컴파일 시 크기 결정되며, 실행 중 함수 호출에 따라 동적으로 크기가 증가/감소.
    • 재귀 함수 호출 시 각 호출의 데이터가 스택에 개별적으로 저장됨.
  • 주의사항:
    • 스택 크기 초과 시 스택 오버플로우(Stack Overflow) 발생.
    • 힙과 스택이 서로 확장되므로, 두 영역 사이에는 여유 공간을 둠.

3.3.3. 힙(Heap)

  • 저장 내용: 런타임 중 동적으로 할당된 메모리. 예: 동적 배열, 객체 등.
  • 특징:
    • 런타임 시 크기 결정, 개발자가 직접 메모리 크기를 할당 및 해제.
    • 동적 할당 함수 사용: 예) malloc, calloc(C 언어), new(C++).
  • 주의사항:
    • 할당된 메모리를 해제하지 않으면 메모리 누수(Memory Leak) 발생.
    • 할당된 메모리에 잘못 접근하면 세그먼트 오류(Segmentation Fault) 발생 가능.

3.3.4. 데이터영역(Data Section)

  • 저장 내용: 전역 변수, 정적 변수 등.
  • 구성:
    • BSS 영역 (Block Started by Symbol):
      • 초기화되지 않은 변수(int x;)를 저장하며, 자동으로 0으로 초기화.
    • Data 영역:
      • 초기값이 있는 변수(int x = 5;)를 저장.
  • 특징:
    • 프로그램 시작 시 메모리에 로드되며, 프로그램 종료 시까지 유지.

3.3.5. 코드 영역 (Code Section)

  • 저장 내용: 프로그램의 소스 코드가 컴파일되어 생성된 기계어.
  • 특징:
    • 읽기 전용으로 설정되어 수정 불가능.
    • 프로그램 실행 중 명령어가 CPU에서 실행되도록 관리.
  • 주의사항:
    • 코드 영역을 수정하려고 하면 프로그램 충돌 또는 오류 발생.

 

3.4. PCB

3.4.1 PCB(Process Control Block)

- 운영체제에서 프로세스에 대한 메타데이터를 저장한 데이터

- 프로세스가 생성되면 해당 PCB를 생성

- 스케줄링 상태, 프로세스 ID, 권한, 카운터 등의 정보로 이루어짐

 

프로세스 생성 과정

1) 프로그램 실행

2) 프로세스 주소 값에 스택, 힙 구조를 기반으로 메모리 할당

3) 프로세스의 메타데이터가 PCB에 저장되어 관리

→ 중요한 정보를 포함하므로 일반 사용자가 접근하지 못하도록 커널 스택의 가장 앞부분에서 관리

 

PCB의 구조

PCB는 프로세스 스케줄링 상태, 프로세스 ID 등의 정보로 이루어져있다. 

1. 프로세스 스케줄링 상태: "준비", "일시중단" 등 프로세스가 소유권을 얻은 이후의 상태

2. 프로세스 ID: 프로세스ID, 해당 프로세스의 자식 프로세스 ID

3. 프로세스 권한: 컴퓨터 자원 또는 I/O 디바이스에 대한 권한 정보

4. 프로그램 카운터: 프로세스에서 실행해야 할 다음 명령어의 주소에 대한 포인터

5. CPU 레지스터: 프로세스를 실행하기 위해 저장해야 할 레지스터에 대한 정보

 

3.4.2. 컨텍스트 스위치(context switching)

- PCB를 기반으로 프로세스의 상태를 저장하고 로드시키는 과정이다.

- 한 프로세스에 할당된 시간이 끝나거나 인터럽트에 의해 발생

- 여러 프로그램 동시 실행 X, 프로세스끼리의 컨텍스트 스위칭이 아주 빠른 속도로 실행 (싱글코어 기준)

 

PCB를 로드 시킴으로써 프로세스를 실행하는데, 유후시간(idle time)이 발생한다. 이뿐만 아니라 이 스위칭에 드는 비용이 있는데 이는 캐시미스이다.

 

3.4.3. 캐시미스

- 컨텍스트 스위칭에 드는 비용

- 컨텍스트 스위칭시 프로세스가 가진 메모리 주소가 그대로 있으면 잘못된 주소로 변환이 생기므로 캐시클리어 과정을 겪게 됨

- 캐시 클리어 과정으로 인해 캐시 미스가 발생

 

3.4.4. 스레드에서의 컨텍스트 스위칭

- 스레드에서도 일어남

- 스레드는 스택 영역을 제외한 모든 메모리를 공유하기에 스레드에서는 비용이 더 적고 시간도 더 적음

 

3.5  멀티프로세싱

3.5.1. 멀티프로세싱

- 여러 개의 프로세스, 동시에 두 가지 이상의 일을 수행하는 것

- 하나의 일을 병렬로 처리

- 특정 프로세스에 문제가 발생돼도 다른 프로세스를 이용

- 하드웨어 관점으로 보면 멀티 프로세서(다중 코어)가 처리하는 의미도 된다. 

 

3.5.2. 웹 브라우저

- 멀티프로세스 구조

- 브라우저 프로세스, 렌더러 프로세스, 플러그인 프로세스, GPU 프로세스로 구성

 

3.5.3. IPC(Inter Process Communication)

- 멀티 프로세스는 IPC가 가능하다. IPC는 프로세스끼리 데이터를 주고받고 공유 데이터를 관리하는 메커니즘이다.

ex) 클라이언트와 서버 간 데이터 교환

- 종류: 공유 메모리, 파일, 소켓, 익명 파이프, 명명 파이프, 메시지 큐

- 메모리를 완전히 공유하는 스레드보다는 속도가 떨어짐

3.5.4. 공유 메모리

- 여러 프로세스에 동일한 메모리 블록에 대한 접근 권한을 부여

- 기본적으로는 각 프로세스마다 다른 메모리 공간을 가진다.

- 서로 통신할 수 있도록 공유 버퍼를 생성

  (버퍼 데이터 전송 시 일시적으로 데이터를 저장 속도 차이를 조절하는 메모리 공간)

- 메모리 자체를 공유하기에 불필요한 데이터 복사가 필요 없어 가장 빠름

- 동기화 필요

3.5.5. 파일 

- 디스크에 저장된 데이터 또는 파일 서버에서 제공한 데이터

- 이를 기반으로도 프로세스 간 통신

 

3.5.6. 소켓 

- 동일한 컴퓨터의 다른 프로세스 또는 다른 컴퓨터로 네트워크 인터페이스를 통해 전송하는 데이터

- TCP / UDP

 

3.5.7. 익명 파이프 (unamed pipe)

- 프로세스 간 FIFO 방식으로 읽히는 임시 공간인 파이프를 기반으로 데이터 교환

- 단방향 방식

- 부모, 자식 프로세스 간에만 사용 가능하며 다른 네트워크 상에서는 사용 불가.

3.5.8. 명명된 파이프(named pipe)

- 파이프 서버와 하나 이상의 파이프 클라이언트 간의 통신을 위한 단방향, 또는 이중 파이프

- 서버용, 클라이언트용 구분하여 작동

- 여러 파이프를 동시에 사용 가능

- 다른 컴퓨터와도 통신 가능

3.5.9. 메시지 큐

- 메시지를 큐 데이터 구조 형태로 관리

- 커널에서 전역적으로 관리

- 다른 IPC 방식에 비해  사용 방법이 직관적이고 간단

- 공유 메모리를 통해 IPC를 구현하면 읽기 빈도가 높으며 동기화 때문에 기능을 구현하는 것이 매우 복잡해지는데, 이때 대안으로 메시지 큐를 사용한다.

 

3.6. 스레드와 멀티 스레딩

3.6.1. 스레드

- 프로세스의 실행 가능한 가장 작은 단위

- 프로세스는 여러 스레드를 가질 수 있음

- 프로세스와 스레드 차이점:

  1. 프로세스 - 코드, 데이터, 스택, 힙을 각각 생성

  2. 스레드 - 코드, 데이터, 힙은 서로 공유

 

3.6.2. 멀티 스레딩

- 한 프로세스 내 작업을 여러 개의 스레드로 처리하는 기법

- 스레드끼리 서로 자원을 공유하기에 효율성이 높으며 동시성에도 큰 장점이 있다.

- 한 스레드가 중단(blocked)돼도 다른 스레드는 실행 상태(running)가 되어 빠른 처리

- 그러나 스레드끼리 영향을 끼쳐 프로세스에 영향을 줄 수 있음

 

+a) 멀티 스레딩이 아닌 프로세스는 새로운 요청이나 명령에 새 프로세스를 생성하여 리소스를 많이 소비한다.

 

동시성: 서로 독립적인 작업들을 작은 단위로 나누고 동시에 실행되는 것처럼 보여주는것

3.7. 공유 자원과 임계영역

3.7.1 공유자원

- 시스템 안에서 각 프로세스, 스레드가 함께 접근할 수 있는 자원(모니터, 프린터, 메모리, 파일, 데이터 등)이나 변수

- 이 공유 자원을 두 개 이상의 프로세스가 동시에 읽거나 쓰는 상황을 경쟁 상태(race condition) 이라 한다.

- 동시에 접근시 접근의 타이밍이나 순서 등이 결과 값에 영향을 준다.

 

3.7.2 임계 영역(critical section)

- 공유 자원에 접근할 때 순서 등의 이유로 결과가 달라지는 "코드 영역"

- 해결 방법 3가지 :  뮤텍스, 세마포어, 모니터

→ 모두 상호 배제, 한정 대기, 융통성 이라는 3가지 조건 만족

- 이러한 방식의 토대 메커니즘은 잠금(lock)이다.

 

상호 배제: 임계 영역에 한 프로세스만 들어갈 수 있음

한정 대기: 특정 프로세스가 영원히 임계 영역에 들어가지 못하면 안됨

융통성: 프로세스끼리 일을 방해해서는 안됨

 

3.7.3. 뮤텍스(mutex)

- 공유 자원을 사용하기 전에 lock()을 통해 잠금 설정, 사용한 후 unlock()을 통해 잠금 해제하는 객체이다.

- 하나의 상태만 가짐 (잠금 or 잠금 해제)

 

3.7.3. 셰마포어(semaphore)

- 일반화된 뮤텍스

- 간단한 정수 값과 두 가지 함수 wait(=P 함수), signal(=V함수)로 공유 자원에 대한 접근 처리

- 프로세스나 스레드가 공유자원에 접근하면 세마포어에서 wait() 작업을 수행

- 프로세스나 스레드가 공유 자원을 해제하면 세마포어에서 signal()을 수행

- 따라서 동시에 세마포어의 값을 수정할 수 없다. 

- 세마포어에는 조건변수 개념이 없다.

함수 동작

  1. wait():
    • 자신의 차례가 될 때까지 대기.
    • 세마포어 값을 1 감소.
    • 자원이 비어있으면 대기 상태로 진입.
  2. signal():
    • 다음 프로세스나 스레드로 순서를 넘김.
    • 세마포어 값을 1 증가.
    • 대기 중인 프로세스를 깨워 실행 상태로 전환.

 

3.7.3.1 바이너리 세마포어

- 0 / 1 두 가지 값만 가지는 세마포어

- 구현의 유사성으로 뮤텍스는 바이너리 세마포어라 할 수 있지만 엄밀히 말하면 다름

- 뮤텍스는 잠금을 기반으로 하는 잠금 메커니즘

- 세마포어는 신호를 기반으로 상호배제가 일어나는 신호 메커니즘이다.

 

3.7.3.2 카운팅 세마포어

- 여러 개의 값을 가지는 세마포어

- 여러 자원에 대한 접근을 제어

 

3.7.4 모니터

- 둘 이상의 스레드나 프로세스가 공유 자원에 안전하게 접근할 수 있도록 인터페이스만 제공

- 공유 자원은 숨김

- 모니터큐를 통해 공유 자원 작업 처리

- 세마포어보다 구현하기 쉬움

- 모니터는 상호배제 자동으로 처리하지만, 세마포어는 상호배제를 명시적으로 구현해야한다.

 

3.8. 교착 상태(DeadLock)

- 두 개 이상의 프로세스들이 서로가 가진 자원을 기다리며 중단된 상태

ex) A는 B가 가진 자원을 요청, B는 A가 가진 자원을 요청하여 무한 대기

 

3.8.1. 교착 상태의 원인

1. 상호 배제: 한 프로세스가 자원을 독점하며, 다른 프로세스가 접근 불가능한 상태

2. 점유 대기: 특정 프로세스가 점유한 자원을 다른 프로세스가 요청

3. 비선점: 다른 프로세스의 자원을 강제로 가져올 수 없음

4. 환형 대기: 위의 예시와 같이 프로세스 A, B가 서로 자원을 요구하는 상황

 

3.8.2. 교착 상태의 해결방법

1. 자원을 할당할 때 애초에 조건이 성립되지 않도록 설계.

2. 교착 상태 가능성이 없을때만 자원 할당

3. 프로세스당 요청할 자원들의 최대치를 통해 자원 할당 가능 여부를 파악하는 "은행원 알고리즘" 사용

4. 데드락 발생시 사이클이 있는지 확인하여 관련 프로세스를 하나씩 제거

5. 데드락 발생시 응답 없음과 같이 작업 종료(처리하는 비용이 더 커서)  > 현대 운영체제의 방법

 

은행원 알고리즘: 총 자원의 양과 현재 할당 자원의 양을 기준으로 안정/불안정 상태로 나누고 안정 상태로 가도록 자원을 할당하는 알고리즘

4. CPU 스케줄링 알고리즘

cpu스케줄링 알고리즘

CPU 스케줄러는 알고리즘에 따라 프로세스에서 해야하는 일을 스레드 단위로 cpu에 할당한다. 

즉, 스케줄러는 어떤 프로그램에 CPU의 소유권을 줄지 결정하는데, 기준은 다음과 같다.

 

1. CPU 이용률을 높게(가용성) => 주어진 시간에 많은 일을 하게 만든다.

2. 준비 큐(ready queue)에 있는 프로세스는 적게

3. 응답시간은 짧게 설정하는 것을 목표로 한다.

 

 

4.1. 비선점형 방식 (non-preemptive)

비선점형 방식은 프로세스가 스스로 CPU 소유권을 포기하는 방식이며, OS가 강제로 프로세스를 중지하지 않는다.

 

장점: 컨텍스트 스위칭으로 인한 부하가 적다.

단점: 데드락 발생가능성이 높다.

 

4.1.1. FCFC(First Come, First Served)

가장 먼저온 것을 가장 먼저 처리 한다. CPU에서 상대적으로 길게 수행되는 프로세스 때문에 레디 큐에서 오래기다리는 현상(convoy effect)가 발생할 수 있다.

 

4.1.2. SJF(Shortest Job First)

레디큐에서 실행시간이 가장 짧은 프로세스를 실행한다. 이로인해 긴 시간을 가진 프로세스가 실행되지 않는 현상(starvation)이 일어난다. 평균 대기시간은 가장 짧다. 

 

4.1.3. 우선순위

기존 SJF 스케줄링의 단점을 보완할 수 있는데, 오래된 작업일수록 우선순위를 높이는 방법(aging)을 사용하면 된다.

(우선순위 알고리즘은 FCFS에도 적용가능하다.)

 

4.2. 선점형 방식 (preemptive)

선점형 방식은 현대 OS가 사용하는 방식으로, 지금 사용하고 있는 프로세스를 알고리즘에 의해 중단시켜버리고, 강제로 다른 프로세스에 CPU 소유권을 할당하는 방식이다. 

 

4.2.1. 라운드 로빈(RR, Round Robin)

이는 현대 OS가 쓰는 선점형 알고리즘 스케줄링 방법이다.

 

라운드 로빈은 선점형 스케줄링 방식 중 하나로, 시간 할당량(Time Quantum)을 기준으로 프로세스들에게 CPU를 번갈아 가며 할당하는 방식이다. 즉, 동일한 할당 시간을 주고 그 시간안에 끝나지 않으면 다시 레드큐의 뒤로 가는 알고리즘이다. 

 

장점

  • 공평성: 모든 프로세스가 일정한 시간 동안 CPU를 사용할 기회 보장.
  • 응답 시간 단축: 대기 시간이 짧은 프로세스의 응답 속도가 빨라짐.

단점

  • 시간 할당량 설정 중요:
    • 너무 작으면 오버헤드(스위칭 비용) 증가.
    • 너무 크면 FCFS(First-Come, First-Served)처럼 동작해 비효율적.

RR은 로드밸런서에서 트래픽 분산 알고리즘으로도 쓰인다.

 

4.2.2. SRF(Shortest Remaining Time First)

이는 SJF와 달리 레디큐에 현재 실행되고 있는 프로세스보다 실행시간이 더 짧으면 실행중인 프로세스를 중지하고, 더 짧은 프로세스를 수행하게 하는 알고리즘이다.

 

4.2.3. 다단계 큐


다단계 큐우선순위에 따른 레디 큐를 여러개 사용하고, 큐마다 RRㅇ이나 FCFS 등 다른 스케줄링을 적용한다.  

큐 간의 프로세스 이동이 안되므로 스케줄링 부담이 적지만 유연성이 떨어진다.

728x90