정적 페이지와 동적 페이지

|

개인적인 연습 내용을 정리한 글입니다.
잘못된 내용이 있다면 편하게 댓글 남겨주세요!


정적 웹 페이지(Static Web Page)

  • 서버에 미리 저장된 파일이 그대로 전달되는 웹 페이지
  • 서버는 사용자의 요청(request)에 해당하는 저장된 웹 페이지를 보냄
  • 사용자는 서버에 저장된 데이터가 변경되지 않는 한 고정된 웹 페이지를 보게됨

동적 웹 페이지(Dynamic Web Page)

  • 서버에 있는 데이터들을 스크립트에 의해 가공처리한 후 생성되어 전달되는 웹 페이지
  • 서버는 사용자의 요청(request)을 해석하여 데이터를 가공 후 생성된 웹 페이지를 보냄
  • 사용자는 상황, 시간, 요청 등에 따라 달라지는 웹 페이지를 보게 됨

인터넷을 사용하다보면, 크게 웹페이지는 정적 웹페이지와 동적 웹페이지로 나뉜다. 정적 웹페이지는 컴퓨터에서 저장된 텍스트 파일을 메모장을 통해 열어보듯 저장된 그대로를 보는것이며, 동적 웹페이지는 그런 내용들이 다른 변수들에 의해 변경되어 보여진다. 가장 큰 차이는 사용자가 받아보는 웹 페이지가 동적으로 변하는 가 아닌가 에 있다.

우리가 보는 대부분의 웹페이지는 동적 웹페이지라고 할 수 있다. 뉴스사이트의 뉴스를 보거나, 포털에서 웹툰을 보거나 하는 행위는 사용자의 요청에 따라 원하는 페이지를 동적으로 생성하여 보내주는 것이다. 만약 정적인 웹 페이지로만 구성하여 홈페이지를 만들게 되면, 새로 업데이트를 하거나 제거를 할때마다 정적 웹 페이지를 제작해줘야하는데 이를 동적 웹페이지로 구축하게 되면 해당하는 스크립트만 작성하고 자동으로 페이지가 생성되게만 해주면 사이트의 관리 비용이 절감할 수 있게 된다.

사용자 입장에서는 사실 서버에서 처리된 웹 페이지를 전달받기 때문에 정적이든 동적이든 크게 상관이 있지않다. 결국 웹페이지는 HTML로 이루어진 웹 페이지 이기 때문이다.

정적 웹 페이지의 장/단점

정적 웹 페이지

  • 장점
  1. 빠르다: 요청에 대한 파일만 전송하면 되기 때문에 추가적인 작업이 없다.
  2. 비용이 적다: 마찬가지로 웹 서버만 구축하면 된다.
  • 단점
  1. 서비스가 한정적이다: 저장된 정보만 보여줄 수 있다.
  2. 관리가 힘들다: 추가/수정/삭제의 작업 모두 수동으로 이루어져야 한다.

동적 웹 페이지

  • 장점
  1. 서비스가 다양하다: 다양한 정보를 조합하여 동적으로 생성하여 제공이 가능하다
  2. 관리가 쉽다: 웹 사이트 구조에 따라서 추가/수정/삭제 등의 작업이 용이하다.
  • 단점
  1. 상대적으로 느리다: 사용자에게 웹 페이지를 전달하기 전에 처리하는 작업이 필요하다.
  2. 추가 비용이 든다: 웹 서버외에 추가적으로 처리를 위한 어플리케이션 서버가 필요하다.

동적 웹 사이트는 정적 웹 사이트와는 달리 서버 내부에서 추가적인 작업이 필요하기 때문에 서버 내부에 그런 작업들을 처리하기 위한 모듈같은 것이 필요하다. 따라서 서버를 구성할 때 필요한 모듈들을 설치해야하고, 웹 호스팅을 이용할 때에도 해당 모듈을 제공하는 서비스를 선택해야한다.

이런 모듈들은 서버의 자원(CPU, 메모리 등)을 이용하기 때문에 비용이 들기도하며, 이런 모듈들을 이용해 동적 웹페이지를 생성한다는 것 자체가 바로 전송이 가능한 정적인 웹 페이지에 비해 느린것도 사실이다. 그러나 웹 사이트 구축과 운영/관리 측면에서 봤을때, 구조화된 웹사이트 구축과 관리의 용이성 때문에 전체적인 비용이 절감되는것도 사실이다.

정적인 웹 페이지는 각각 독립되어 있기 때문에 같은 코드가 포함된다하더라도 각각 따로 저장되어야 하지만, 동적 웹 페이지는 중복 코드를 하나의 파일로 만들어 스크립트 불러오기가 가능하다. 따라서 구조화된 웹 사이트를 구축할 수 있는 장점이 있다.

이러한 특징으로 정적 웹페이지보다 동적 웹 페이지를 더 많이 사용하긴 하지만, 정적 웹사이트가 아예 사용되지 않는 것도 아니다. 정적 웹 페이지는 자주 변경되지 않는 페이지(about 등)에 대부분 사용되어 만들어진다. ㄸ라서 웹 사이트의 성격에 맞게 각각 페이지 특성에 맞게 적절히 섞어 사용하는것이 가장 좋다.

컴파일과 고레벨, 저레벨 언어

|

개인적인 연습 내용을 정리한 글입니다.
잘못된 내용이 있다면 편하게 댓글 남겨주세요!


컴파일?

고급프로그래밍 언어에 쓰여진 프로그램으로 소스코드에서의 오브젝트로 변환되는 것

  • 소스코드: 프로그래밍을 위한 일련의 텍스트들
  • 오브젝트 코드: 컴파일에 의해 생성된코드

프로그래머는 소스코드를 작성하는데, 이를 프로그래밍이라고도 한다. 즉, 소스코드는 개발자가 사용하는 언어에 따른 명령어들의 조합이라고 볼 수 있지만 명령어 실행을 위해서는 기계어 즉, 저레벨 언어로 쓰여져야만 하드웨어 제어가 가능하다.

저레벨 언어(low-level language)

  • 기계어, 어셈블리어를 의미
  • 고레벨언어보다 하드웨어와 더 밀접한 언어이다.

고레벨 언어(high-level language)

  • 프로그래밍에 좀 더 특화된 언어이다.
  • 기계어보다 좀 더 인간의 언어에 가깝다.
  • 저레벨 언어보다 읽기 쉬우며, 읽기 뿐만 아니라 쓰기, 유지보수에도 용이하다.
  • 즉, 프로그램을 생산하기 수월하다
  • 그러나 고레벨 언어는 기계어로 변환하기 위한 인터프리터나 컴파일러가 필수적으로 요구된다.

즉, 컴파일러는 고레벨 언어를 저레벨 언어로 변경하기 위해 필요한 장치 또는 도구라고 볼 수 있다.

프로그래밍 자체가 하드웨어를 제어하기 위해 탄생한 것으로 볼 수 있고 이를 조작하기 위해서는 기계어로 작성해야하지만, 기계어로는 프로그래밍을 작성하기 매우 까다롭기 때문에 인간에게 더 친숙한 고레벨 언어가 탄생하였고 이 고레벨 언어로 작성한 프로그램이 작동하기 위해서는 컴파일러가 필요한것이다.

쓰레드(Threads)와 동기화(Synchronization)

|

개인공부 후 자료를 남기기 위한 목적임으로 내용 상에 오류가 있을 수 있습니다.
경성대학교 양희재 교수님 수업 영상을 듣고 정리하였습니다.


쓰레드 (Thread)

프로그램 내부의 흐름, 맥

class Test {
  public static void main(Sting[] args) {
    int n = 0;
    int m = 6;

    System.out.println(n+m);

    while (n < m)
    n++;

    System.out.println("Bye");
  }
}

하나의 프로그램은 하나의 맥이 있고 이러한 맥을 쓰레드라고 한다.

Multithreads

  • 다중 쓰레드(Multithreads)
    • 한 프로그램에 2개 이상의 맥
    • 맥이 빠른 시간 간격으로 스위칭 된다 => 여러 맥이 동시에 실행되는 것처럼 보인다. (concurrent vs simultaneous)
    • 현재의 모든 프로그램들은 다 다중쓰레드를 지원한다.

동시에 돌 수 있는 이유는 맥이 빠른시간으로 스위칭 되기 때문이다.
그래서 실제로 같이 하고 있는 것처럼 보이지만 사실 CPU는 하나이기 때문에 우리는 하나만 사용하고 있다. 우리는 일반적으로 concurrent!

  • 예: Web breoser
    • 화면 출력하는 쓰데르 + 데이터 읽어오는 쓰레드
  • 예: Word Processor
    • 화면 출력하는 쓰레드 + 키보드 입력 받는 쓰레드 + 철자/문법 오류 확인 쓰레드
  • 예: 음악 연주기, 동영상 플레이어, Eclipse IDE…

실제 context switching 되는 단위는 process단위가 아니라 thread단위이다!

Thread vs Process

  • 한 프로세스에는 기본 1개의 쓰레드: 단일 쓰레드(single thread) 프로그램
  • 한 프로세스에 여러개의 쓰레드: 다중 쓰레드 (multi-thread) 프로그램

  • 쓰레드 구조
    • 하나의 프로그램에서 맥이 여러개다.
    • 프로세스의 메모리 공간을 공유한다 (code, data를 쓰레드가 서로 공유)
    • 프로세스의 자원공유(한 쓰레드 안에서 file, io 등을 공유)
    • 비공유: 개별적인 PC(program counter), SP(stack pointer), Registers, stack
      • CPU가 p1에 있는 각각의 쓰레드가 가지고 있는 PC값은 다를 것이다. 그래서 스위칭 될때마다 각자가 가리키고 있는 값이다르니 이 값들은 공유하지 않는다.
      • 스택은 리턴값 혹은 파라미터 값을 저장하기 위해 사용되는데, 서로간에 호출하는 메소드가 다 다를수가 있다.

하나의 프로그램은 코드, 데이터, 스택으로 구성되는데 쓰레드가 코드, 데이터는 공유를 하지만 이때 스택은 따로 가지고 있다.

  • 프로세스의 스위칭 vs 쓰레드의 스위칭
    현대의 모든 운영체제는 context switching 단위가 쓰레드간의 단위이다.

예: 자바 쓰레드

  • 맥 만들기
    • java.lang.Thread
      • 자바에서는 쓰레드가 객체로 이루어져있기 때문에, 쓰레드라는 객체를 만들어줘야함
    • 쓰레드가 가지고 있는 주요 메소드
      • public void(run): 새로운 맥이 흐르는 곳
      • void(start): 쓰레드 시작 요청
      • void(join): 쓰레드가 마치기를 기다림
      • static void(sleep): 쓰레드 잠자기 / 멈추도록

java.lang.Thread

  • Thread.run()

쓰레드가 시작되면 run()메소드가 실행된다(run()메소드를 치환한다)
run()안에서 안에서 새로운 맥이 실행되기 때문에 run()을 치환해야 하고, 치환하려면 쓰레드 클래스에 하위 클래스를 만들어서 치환한다.

class MyThread extends Thread{
  public void run() { // 치환(override)
    // 코드
    while (True) {
      System.out.println("B");
      try {
      Thread.sleep(100);
      } catch (InterruptedException e) ()
    }
  }
}
class Test {
  public static void main(String[] args) {
    MyThread th = new MyThread()
    th.start();
    while (True) {
      System.out.println("A");
      try {
      Thread.sleep(100);
      } catch (InterruptedException e) ()
    }
  }
}
  • 모든 프로그램은 처음부터 1개의 쓰레드는 갖고 있다(main)
  • 2개의 쓰레드: main + MyThread

해당 프로그램이 시작되면 main함수가 먼저 시작할것이다. main함수의 MyThread가 실행되면서 while문의 무한루프가 돌면서 B가 계속해서 찍혀나갈 것이고 그와 동시에 main함수의 while문이 무한루프를 돌면서 A를 계속해서 찍어낼 것이다. 컴파일해보면 A와 B가 섞여서 찍힐 것이다.

프로세스 동기화(Process Synchronization)

더 정확한 표현은 Thread Synchronization이다.
서로간 영향을 주고받는 데이터들간에 데이터의 일관성이 유지될 수 있도록 해주는 것이 동기화이다.

보통 컴퓨터 메모리 안의 프로세스들은 독립적이지 않고 협조하는 관계이다. 즉, 다른 프로세스에게 영향을 주거나 영향을 받는다. 대부분 공통된 자원(메인메모리)을 서로 접근하려고 하다보니 그런것이다. 하나의 메인메모리에 프로세스들이 많으니 어떤 방식으로든 영향을 주고받으니 그럴수록 프로세스 동기화의 개념이 중요해지고 있다.

  • Processes
    • Independent vs Cooperating
    • Cooperating process: one that can affect or be affected by other processes executed in the system(그 시스템 내에서 실행되고 있는 다른 프로세스에 대해서 프로세스 간 영향을 주든지 영향을 받든지하는 프로세스)
    • 프로세스 간 통신: 전자우편, 파일 전송(서로 공유하며 데이터 통신을 함)
    • 프로세스간 자원 공유: 메모리 상의 자료들, 데이터베이스 등(데이터를 공유하기에 서로에게 영향을 줌)
    • 명절 기자표 예약, 대학 온라인 수강신청, 실시간 주식거래
  • Process Synchronization
    • Concurrent access to shared data may result in data inconsistency
    • Orderly execution of cooperating processes so that data consistency is maintained -> 공유 데이터에 동시에 접근하면 데이터의 비일관성을 초래한다.
      -> 서로간 영향을 주고받는 데이터들간에 데이터의 일관성이 유지될 수 있도록 해주는 것이 동기화이다.
  • ex: BankAccount Problem(은행계좌문제)
    • 부모님은 은행계좌에 입금, 자녀는 출금
    • 입금(deposit)과 출금(withdraw)은 독립적으로 일어난다.
class BankAccount {
  int balance;
  void deposit(int n) {
    balance = balance + n;
  }
  void withdraw(int n ){
    balance = balance + n;
  }
  int getBalance() {
    return balance;
  }
}
class Parent extends Thread {
  BankAccount b;
  Parent(BankAccount b) {
    this.b = b;
  }
  public void run() {
    for (int i=0; i<1000;, i++)
      b.deposit(1000);
      System.out.println("+");
  }
}
class Child extends Thread {
  BankAccount b;
  Child(BankAccount b) {
    this.b = b;
  }
  public void run() {
    for (int i=0; i<1000;, i++)
      b.withdraw(1000);
      System.out.println("-");
  }
}
class Test {
  public static void main(String[] args)
  throws InterruptedException {
    BankAccount b = new BankAccount();
    Parent p = new Parent(b);
    Child c = new Child(b);

    p.start();
    c.start();
    p.join();
    c.join();

    System.out.println("balance = " + b.getBalance());
  }
}

잔액은 0원이 나올 것이다.

프로세스 동기화가 안되는 경우의 문제

시간지연에 따라 잘못된 결과를 초래한다.

class BankAccount {
  int balance;
  void deposit(int n) {
    balance = balance + n;
    System.out.println("+");
    balance = temp;
  }
  void withdraw(int n ){
    balance = balance + n;
    System.out.println("-");
    balance = temp;
  }
  int getBalance() {
    return balance;
  }
}
class Parent extends Thread {
  BankAccount b;
  Parent(BankAccount b) {
    this.b = b;
  }
  public void run() {
    for (int i=0; i<1000;, i++)
      b.deposit(1000);
  }
}
class Child extends Thread {
  BankAccount b;
  Child(BankAccount b) {
    this.b = b;
  }
  public void run() {
    for (int i=0; i<1000;, i++)
      b.withdraw(1000);
  }
}
class Test {
  public static void main(String[] args)
  throws InterruptedException {
    BankAccount b = new BankAccount();
    Parent p = new Parent(b);
    Child c = new Child(b);

    p.start();
    c.start();
    p.join();
    c.join();

    System.out.println("balance = " + b.getBalance());
  }
}

시간지연에도 불구하고 결과는 바르게 나와야하는데, 이를 해결해야하는 것을 동기화라고 한다.
-> context switching이 중간에 일어나게 되면 이상한 결과를 초래할 수 있다.
-> 공통변수(common variable, balance)에 대한 동시 업데이트(concurrent update)로 인해 발생!
(즉, 하이레벨 랭귀지는 한줄이지만 로우레벨은 여러줄인데 업데이트 도중에 스위칭이 발생)
-> 해결: 공통변수에 대해 한번에 한 쓰레드만 업데이트 하도록한다! 임계구역 문제 = atomic하게!

임계구역 문제(Critical-Section Problem)

Critical section(임계구간, 치명적인 구간): 이 구간에서 아주 치명적인 오류가 발생할 수 있다.

A system consisting of multiple threads. Each thread has a segment of code, called critical section, in which the thread may be changing common variables, updating a table, writing a file, and so on

여러개의 쓰레드로 구성된 시스템에서 각각의 쓰레드는 어떤 코드의 영역을 가지고 있는데, 그 코드의 영역을 임계구역이라고 한다. 이 임계구역이 되기 위해서는 여러 쓰레드들이 공통의 변수, 테이블, 파일들을 바꾸는 부분 코드를 임계구역이라고 한다.

  • Solution (3개가 모두다 만족되어야 한다.)
    • Mutual exclusive(상호배타): 오류가 일어나지 않으려면 공통 변수에 대한 업데이트는 오직 한 쓰레드만 들어가 있을 때 진행되어야 한다. 즉 Parent가 critical section에 들어가면 그 순간에는 Child가 critical section에 들어가면 안된다.

    • Progress(진행): 진입 결정은 유한 시간 내에 일어나야 한다. 즉 critical section에 누가 들어갈 것인지를 결정하는 것은 유한 시간 내에 일어나야 한다.

    • Bounded waiting(유한대기): 어느 쓰레드라도 유한 시간 내에 일어나야 한다. 기다리는 시간의 한계가 들어가 있다는 것으로 내가 기다리고 있다면 유한 시간 내에 critical section 안으로 들어갈 수 있다.

프로세스/쓰레드 동기화

  • 임계구역 문제 해결
  • 프로세스 실행 순서 제어(원하는대로)
  • Busy wait 등 비효율성 제거

프로세스 관리에서 중요한 것은 결국 프로세스/쓰레드의 동기화이다. 틀린답이 나오지 않도록 os에서 임계구역 문제를 해결해줘야 한다. 그리고 프로세스/쓰레드의 순서를 임의로 제어할 수 있어야 한다.

프로세스 생성과 소멸

|

개인공부 후 자료를 남기기 위한 목적임으로 내용 상에 오류가 있을 수 있습니다.
경성대학교 양희재 교수님 수업 영상을 듣고 정리하였습니다.


프로세스의 생성과 소멸

Process Creation

  • 프로세스는 프로세스에 의해 만들어진다. (init process에 의해)
    • 부모 프로세스(Parent process)
    • 자식 프로세스(Child process)
      • cf. Sibling process
    • 프로세스 트리 (process tree)
  • Process Identified(PID): 프로세스 번호, 중복되지 않음, 그 번호의 프로세스가 죽기전까지는 그 번호를 재할당못함
    • Typically an integer number: 전형적으로 정수형 숫자
    • cf. PPID: 부모의 할당 ID
  • 프로세스 생성
    • fork(): 새로운 프로세스를 생성하는 system call
    • exec(): 만들어진 프로세스로 하여금 실행하도록 하기 위해서 실행파일을 메모리로 가져오기 위해서 복사

ps: process state / ps -a
UID: User ID
PID: Process ID
PPID: Parent Process ID

Process Termination

  • 프로세스 종료
    • exit() system call: 해당 시스템 콜을 호출하면 프로세스가 종료됨
    • 해당 프로세스가 가졌던 모든 자원(메모리, 파일, 입출력 장치 등..)은 OS에게 반환: 이 OS는 이 자원을 필요로 하는 애한테 다시 보내줄 것이다.

CPU Scheduling - FCFS, SJF, Priority, RR, 다중 큐 스케줄링

|

개인공부 후 자료를 남기기 위한 목적임으로 내용 상에 오류가 있을 수 있습니다.
경성대학교 양희재 교수님 수업 영상을 듣고 정리하였습니다.


CPU Scheduling

Ready Queue에서 프로세스들이 CPU의 서비스를 받기 위해 기다리는데, 현재 CPU에서 하고 있는 작업이 끝나게되면 어느 프로세스를 가져올지 결정하는 것

  • Preemptive vs Non-Preemptive (선점 vs 비선점)
    • Preemptive: CPU가 어떤 프로세스를 막 실행하고 있는데, 아직 끝나지도 않았고 IO를 만나지도 않았음에도 강제로 쫓아내고 새로운게 들어갈 수 있게하는 스케줄링 방식
    • Non-Preemptive: 이미 한 프로세스가 진행중이면 절대 스케줄링이 일어나지 않는 것
  • Scheduling criteria(스케줄링 척도)
    • CPU Utilization(CPU 이용률, %): CPU가 얼마나 놀지 않고 일하는가?
    • Throughput(처리율, Jobs/ms): 시간당 몇개의 작업을 처리하는가?
    • Turnaround time(반환시간, m/s): 작업이 들어온 시간부터 끝날때까지의 시간
    • Waiting time(대기시간, m/s): cpu 서비스를 받기 위해 얼마나 기다렸는가?
    • Response time(응답시간): 처음 응답이 나올때까지의 시간, interactive computer에서 중요

CPU Scheduling Algorithm

  • First-Come, First-Served(FCFS): 먼저 온놈을 먼저 작업한다.
  • Shortest-Job_First(SJF): 작업시간이 짧은 놈을 먼저 작업한다.
    • Shortest Remaining-Time-First
  • Priority: 우선순위가 높은 놈을 먼저 작업한다.
  • Round-Robin(RR): 빙빙 돌면서 순서대로 작업한다.
  • Multilevel Queue : Queue를 여러개 둔다.
  • Multilevel Feedback Queue

First-Come, First-Served(FCFS)

  • simple & fair: 먼저 온 놈을 먼저 작업한다. 제일 간단하고 공평한 방법이다. 그러나 정말 좋은 방법인가?
    • 꼭 좋은 성능을 나타내는 것은 아니다.
  • example: Find Average Waiting Time
    • AWT = (0+24+27)/3 = 17 msec cf.3 msec!

3개의 프로세스가 거의 동시에 Ready Queue에 도착했다고 해보자.

  • Gantt Chart
Process Burst Time(CPU 이용시간)
P1 24
P2 3
P3 3
  • Convoy Effect(호위효과): cpu 실행시간을 많이 쓰는애가 딱 앞에 있으면 나머지 애들이 뒤를 따라다니며 기다리고 있는 모습-> FCFS 의 단점
  • Non-Preemptive Scheduling: p1이 끝날때까지 나머지는 못들어감.

Shortest-Job_First(SJF)

실행시간이 가장 짧은 작업을 가장 먼저 실행함으로써 짧게 끝나는 프로세스를 앞장세워야 전체 대기시간이 줄어들게 함

  • Example : QWT = (3+16+9+0)/4 = 7msec
    • ch. 10.25msec(FCFS)
  • Provably optimal!
    • 대기시간을 줄이는 측면에서는 가장 좋은 방법!
  • Not realistic, prediction may be needed
    • 비현실적이다. 실제로 이 프로세스가 얼마를 사용할지를 우리는 알수가 없다. 실제 돌려보기 전까지는 전혀 알수가 없다. 그래서 가장 이상적이지만 비현실적이다. 실제로 사용하기에는 예측을 할 수 밖에 없다. 예측하기 위해서는 os가 그동안 cpu를 사용했던 시간들을 다 정리해놓고 예측을 하는 것이긴 이 예측을 하기 위해서는 overhead가 많은것이고 그 만큼의 계산도 많이 들게된다.
Process Burst Time(CPU 이용시간)
P1 6
P2 8
P3 7
P4 3
  • Preemptive or Non-Preemptive
  • cf. Shortest-Remaining-Time-First(최소잔여시간 우선): 남아있는 시간이 얼마나 짧은가가 우선시가 된다.

  • Example
    • Preemptive: AWT =(9+0+15+2)/4 = 6.5msec
    • Non-Preemptive: 7.75 msec
Process Arrival-Time Burst Time(CPU 이용시간)
P1 0 8
P2 1 4
P3 2 9
P4 3 5

Priority

  • typically an integer number
    • Low number represents high priority in general(Unix/Linux)
    • 우선순위, 컴퓨터 프로그램에서는 정수값으로 나타내는데 대부분의 운영체제에서는 숫자가 작을수록 우선순위가 높아진다.
  • Example
    • AWT = 8.2 msec
Process Burst Time(CPU 이용시간) Priority
P1 10 3
P2 1 1
P3 2 4
P4 1 5
P5 5 2
  • 우선순위는 어떻게 정하는가?
    • Internal: time limit, memory requirement, i/o to CPU burst…
      • 내부: 짧을수록, 메모리를 적게 사용할수록, io시간이 길고 CPU 사용시간이 적을수록..
    • External: amount of funds being paid, political factors…
      • 외부: 돈을 많이 낸쪽을 먼저, 정치적인 요소일수록..
  • Preemptive or Non-Preemptive
    • 둘다 만들 수 있음
  • Problem
    • Indefinite blocking: starvation(기아)
      • 한 프로세스가 끝나고 그 다음 우선순위가 작동을 하게 되는데, 이 와중에도 외부에서는 계속해서 작업들이 들어올것이다. 그런데 아무리 오래 기다리고 있다고 하더라고 새로 들어오는 애들이 더 우선순위가 높다면 이전에 있던 애들 중에서도 계속해서 메모리에 올라가지 못하는 애들이 있을 것이다.
    • Solution: aging
      • 오래 기다릴수록 우선순위를 조금씩 올려주는 것. 레디큐에 오래 머물고 있다면 점진적으로 우선순위를 조금씩 올려줘서 실행을 할 수 있도록 해줌.

Round-Robin(RR)

빙빙돈다. 빙빙 돌면서 스케줄링한다.

  • Time-Sharing system(시분할/시공유 시스템): TSS에서 많이 사용하는 방법
  • Time quantum(Δ) 시간양자 = time slice (10~100msec) -> 1초동안에 보통 10~100번의 스위칭이 일어난다는 것을 의미!
    • 세 개의 프로세스가 있고 동일한 시간동안 돌아가면서 작업이 이루어지고 이 동일한 시간을 time quantum이라고 한다. 시간양자라고도 한다. 시간의 양. 시간 조각.
  • Preemptive scheduling: p1이 안끝났다고 하더라도 일정 시간이 지나면 다음 프로세스로 넘어가기 때문에

  • Example
    • AWT = 17/3 = 5.66msec
Process Burst Time(CPU 이용시간)
P1 24
P2 3
P3 3
  • Performance depends on the size of the time quantum: time quantum의 크기에 굉장히 의존적이다.
    • Δ = ∞ : 해당 프로세스가 다 사용되고 나면 스위칭됨으로 FCFS와 같다.
    • Δ = 0 : Processor sharing(* context switching overhead)
      • 스위칭이 워낙 빈번하게 일어나서 3개의 프로세스가 거의 동시에 이루어지는것처럼 보여진다.
      • 실제로 TSS가 굉장히 빈번히 스위칭이 일어나니까 동시에 프로세스를 사용하는 것처럼 보인다.
      • 근데 이는 context switching overhead가 굉장히 빈번하게 된다.
      • Dispatcher(p1에서 p2로 넘어갈때 p1의 내용을 저장하고 p2를 로드해오는 시간을 context switching overhead라고 함)가 빈번하게 되면 결코 좋은 방법이 아니다.

그래서 time slice를 너무 작게 하면 안된다.

  • Example: Average Turnaround time(ATT)
    • ATT = 11.0 msec(time quantum = 1), 12.25msec(time quantum=5)
      • 반환시간. 처음 들어간 시간부터 나온시간까지

time quantum을 얼마로 잡는가에 따라서 ATT가 되게 클수도 작을 수도 있다. 이에 따라서 성능이 달라진다. 좋은 time quantum을 잡는것이 중요하다.

Process Burst Time(CPU 이용시간)
P1 6
P2 3
P3 1
P4 7

Multilevel Queue Scheduling

  • Process group: 실행중인 프로그램들을 그룹할 수 있다.
    • system processes: os안에서 작업하는 것.
    • Interactive processes: 사용자와 대화하는 프로그램, 게임같은 것.
      • 대화하지 않는 프로그램 : compile같은 것.
    • Interactive editing processes: 컴퓨터와 대화를 굉장히 많이한다.
    • Batch processes: 꾸러미, 일괄적으로 처리하는것, 일괄적으로 컴퓨터가 알아서 하니까 내가 관여할 것이 없다.
    • Student processes

프로세스들은 이렇게 그룹을 지을 수 있다. 성격이 다양한 애들을 동일한 줄에 세우는것은 안되는것. 그러니 큐를 하나만 두는것이 아닌 여러개를 두게 되었다.

  • Single ready queue -> Several separate queues: 여러차원을 둔다.
    • 각각의 Queue에 절대적 우선순위 존재: system > interactive > batch > Student
    • 또는 CPU time을 각 Queue에 차등배분 : 한정된 CPU시간을 차등으로 배분
    • 각 Queue 는 독립된 scheduling 정책: 각각 프로세스마다 독립된 스케줄링 정책을 사용

Multilevel Feedback Queue Scheduling

Queue를 여러개 두는것은 같으나

  • 복수개의 Queue

  • 다른 Queue로의 점진적 이동

    • 모든 프로세스는 하나의 입구로 진입
    • 너무 많은 CPU time 사용시 다른 Queue로
    • 기아 상태 우려시 우선순위 높은 Queue로!