CS 스터디

3.2 메모리

3190024 2023. 6. 10. 20:05

참고한 책: 면접을 위한 CS 전공지식 노트 (http://www.yes24.com/Product/Goods/108887922)

+ OS? Oh Yes!

3. 운영체제

    3.2. 메모리

        3.2.1. 메모리 계층

        3.2.2. 메모리 관리

 

p.142

CPU는 그저 메모리에 올라와 있는 프로그램의 명령어들을 실행함.

 

p.143

3.2.1 메모리 계층

메모리 계층은 레지스터, 캐시, 메모리, 저장장치로 구성되어 있음.

레지스터 전원이 나가면 지워진다. 용량 작음, 속도 빠름












용량 큼, 속도 느림
캐시
주기억장치
전자디스크 전원이 나가도 정보가 저장됨.
자기디스크
광디스크
자기테이프
  • 레지스터: CPU 안에 있는 작은 메모리. 휘발성. 속도 가장 빠름. 기억 용량 가장 적음.
  • 캐시: L1, L2 캐시 지칭. 휘발성. 속도 빠름. 기억 용량 적음. L3 캐시도 있음.
  • 주기억 장치: RAM을 가리킴. 휘발성. 속보 보통. 기억용량 보통
  • 보조기억 장치: HDD, SDD를 일컬음. 비휘발성. 속도 낮음. 기억용량 많음.
  • L1 Cache: 프로세서와 가장 가까운 캐시. 속도를 위해 I$와 D$로 나뉜다.
    • Instruction Cache (I$): 메모리의 TEXT 영역 데이터를 다루는 캐시.
    • Data Cache (D$): TEXT 영역을 제외한 모든 데이터를 다루는 캐시.
  • L2 Cache: 용량이 큰 캐시. 크기를 위해 L1 캐시처럼 나누지 않는다.
  • L3 Cache: 멀티 코어 시스템에서 여러 코어가 공유하는 캐시.

ㄴ 출처: https://parksb.github.io/article/29.html

 

램은 하드디스로부터 일정량의 데이터를 복사해서 임시 저장하고 필요할 때마다 CPU에 빠르게 전달.

계층 위로갈수록 빘싸짐. 경제성 때문에 계층을 두어 관리함.

로딩중? - 하드디스크 또는 인터넷에서 데이터를 읽어 RAM으로 전송하는 과정이 아직 끝나지 않음을 의미.

 

p. 144

캐시(cache)

데이터를 미리 복사해 놓는 임시 저장소이자 빠른 장치와 느린 장치엣서 속도 차이에 따른 병목 현ㅅ상을 줄이기 위한 메모리.

데이터를 접근하는 시간이 오래 걸리는 경우를 해결하고 무언가를 다시 계산하는 시간을 절약할 수 있음.

속도 차이를 해결하기 위해 계층과 계층 사이에 있는 계층을 캐싱 계층이라고 함.

 

지역성의 원리

캐시 계층을 두는 것 말고 캐시를 직접 설정할 때는 어떻게 해아 하는가?

->자주 사용하는 데이터를 기반으로 설정해야함.

자주 사용하는 데이터에 대한 근거가 되는 것은?

->지역성. 시간 지역성과 공간 지역성으로 나뉨.

 

시간 지역성(temporal locality)

최근 사용한 데이터에 다시 접근하려는 특성.

데이터의 읽기/쓰기를 위해 특정 메모리가 사용됐을 때 가까운 시일 내에 해당 메모리가 다시 사용될 가능성이 높은 것.

밑의 코드에서 데이터는 변수 i이고 최근에 사용했기 대문에 계속 접근해서 +1을 연이어 함.

 

//책 144쪽 코드
let arr = Array.from({length : 10}, () => 0);
console.log(arr)
for(let i = 0; i < 10; i += 1) {
	arr[i] = i;
}
console.log(arr)

 

공간 지역성(spatial locality)

최근 접근한 데이터를 이루고 있는 공간이나 그 가까운 공간에 접근하는 특성

특정 데이터와 가까운 주소가 순서대로 접근되는 경우.

한 메모리 주소에 접근할 때 그 주소뿐만 아니라 해당 블록을 전부 캐시에 가져옴으로써 공간 지역성의 효율을 높임.

위의 코드에서 공간을 나타내는 배열 arr의 각 요소들에 i가 할당되며 해당배열에 연속적으로 접근함.

 

int arr[30000][30000] = {};
for(int i = 0; i < 30000; i++){
	for(int j = 0; j < 3000; j++)
    {
    	(1)arr[i][j] = 1;
        (2)arr[j][i] = 1;
    }
}

(1)의 경우: 메모리에 연속적으로 접근

(2)의 경우: 메모리에 연속적으로 접근하지 못해 시간이 오래 걸림.

 

(시간 지역성, 공간 지역성 설명 및 이중for문 코드

출처: https://literate-t.tistory.com/73 )

 

p. 145 

캐시히트와 캐시미스

캐시히트: 캐시에서 원하는 데이터를 찾음.

캐시미스: 해당 데이터가 캐시에 없다면 주메모리로 가서 데이터를 찾아오는 것.

https://velog.velcdn.com/images/ssongjh55/post/e0d8706c-62fd-458f-af92-2b62182a60e3/image.png

캐시히트를 하게 되면 해당 데이터를 제어장치를 거쳐 가져옴. 위치도 가깝고 CPU 내부 버스를 기반으로 작동하기 때문에 빠름.

캐시미스가 발생되면 메모리에서 가져오게 되는데, 시스템 버스를 기반으로 작동하기 때문에 느림

 

캐시매핑

캐시가 히트되기 위해 매핑하는 방법.

CPU의 레지스터와 주 메모리(RAM) 간에 데이터를 주고받을 때를 기잔으로 설명.

레지스터는 주 메모리에 비해 굉장히 작고 주 메모리는 굉장히 크기 때문에 작은 레지스터가 캐시 계층으로써 역할을 잘 하기 위해 이 매핑을 어떻게 하느냐가 중요.

 

-직접매핑(Directed Mapping)

메모리 주소와 캐시의 순서를 일치시킴.

메모리: 1~100 / 캐시: 1~10 이 있다고 하자.

1~10까지의 메모리는 캐시의 1에, 11~20까지의 메모리는 캐시의 2에 매칭하는 것.

구현이 간단하지만 캐시를 넣다보면 캐시가 비효율적으로 자꾸 교체되어야 하는 일이 생김. -> 적중률이 낮고 성능이 낮은 단순한 방식.

(30~40에 해당하는 값을 자꾸 불러다 사용해야 하는데 저장할 캐시공간은 3 하나 뿐이므로 매번 캐시 교체가 일어남.)

메인 메모리와 캐시를 똑같은 크기로 나누고 순서대로 매핑하는 것.

처리가 빠르지만 충돌발생이 잦음.

 

-연관 매핑(associative mapping)

순서를 일치시키지 않음.

필요한 메모리값을 캐시의 어디든 편하게 저장될 수 있음.

찾는 과정은 복잡하고 느릴 수 있지만 필요한 캐시들 위주로 저장할 수 있기 때문에 적중률은 높다.

충돌이 적지만 모든 블록을 탐색해야 해서 속도가 느림.

 

-집합 연관 매핑(set associative mapping)

연관매핑+직접매핑.

순서는 일치시키지만 집합을 둬서 저장. 블록화되어 있어 검색은 좀더 효율적

예: 메모리가 1~100이 있고 캐시가 1~10이 있다면 캐시 1~5에는 1~50의 데이터를 무작위로 저장하는 것.

직접매핑처럼 저장위치에 대해 큰 제약이 있는 건 아니기 때문에 적중률이 많이 떨어지지 않는다.

ㄴ출처: https://gguljaem.tistory.com/entry/%EC%BA%90%EC%8B%9C%EB%A9%94%EB%AA%A8%EB%A6%AC%EC%9D%98-%EA%B0%9C%EB%85%90%EA%B3%BC-%EB%A7%A4%ED%95%91%EA%B8%B0%EB%B2%95%EC%97%90-%EB%8C%80%ED%95%9C-%EC%84%A4%EB%AA%85

 

웹 브라우저의 캐시

소프트웨어적인 대표적인 캐시: 웹 브라우저의 쿠키, 로컬 스토리지, 세션 스토리지.

보통 사용자의 커스텀한 정보나 인증모듈 관련 사항들을 웹 브라우저에 저장해서 추후 서버에 요청할 때 자신을 나타내는 아이덴티티나 중복 요청 방지를 위해 쓰임.

 

쿠키, 로컬 스토리지, 세션 스토리지 (종류, 동작 원리, 특징) 참고 블로그: https://velog.io/@hs0217/%EC%BF%A0%ED%82%A4-%EB%A1%9C%EC%BB%AC-%EC%8A%A4%ED%86%A0%EB%A6%AC%EC%A7%80-%EC%84%B8%EC%85%98-%EC%8A%A4%ED%86%A0%EB%A6%AC%EC%A7%80

 

쿠키

만료 기한이 있는 키-값 저장소.

4kb까지 데이터를 저장할 수 있고 만료기한을 정할 수 있음.

만료 기간이 있는 클라이언트 단에 저장하는 작은 텍스트 파일.

요청과 응답만이 존재했던 HTTP 웹세계에 이전에 서버와 클라이언트가 주고 받은 내역을 기억하고 불러올 수 있는 혁신적인 역할 수행.

session cookie, persistent cookie, secure cookie, third party cookie

**일시적으로 필요한 가벼운 데이터 저장이 필요할 때 사용: 다시보지 않음 쿠키 팝업창, 로그인 자동 완성

 

웹 스토리지

웹 브라우저를닫아도 유지되고 도메인 단위로 저장, 생성됨.

클라이언트에 데이터를 저장할 수 있도록 HTML5부터 나온 새로운 방식의 데이터 저장소.

key와 value 쌍의 형태로 데이터 저장.

로컬 스토리지와 세션 스토리지가 있음.

 

로컬스토리지

만료기한이 없는 키-값 저장소.

10MB 까지 저장 가능.

웹 브라우저를 닫아도 유지되고 도메인 단위로 저장 ,생성됨.

HTML5를 지원하지 않는 브라우저에서는 사용할 수 없고 클라이언트에서만 수정 가능.

**지속적으로 필요한 저장이 필요할 때: 자동 로그인

 

세션 스토리지

만료 기한이 없는 키-값 저장소.

탭 단위로 세션 스토리지를 생성하며, 탭을 닫을 때 해당 데이터 삭제됨.

5MB까지 저장 가능하고 HTML5를 지원하지 않는 브라우저에서는 사용할 수 없으며 클라이언트에서만 수정 가능.

**일시적으로 필요한 데이터 저장이 필요할 때: 일회성 로그인, 입력 폼 저장, 비로그인 장바구니

 

데이터베이스의 캐싱 계층

데이터 베이스 시스템을 구축할 때도 메인 데이터베이스 위에 레디스(redis) 데이터 베이스 계층을 '캐싱 계층'으로 둬서 성능을 향상시키기도 함.

 

Redis(Remote Dictionary Server)

메모리 기반의 키-값 구조 데이터 관리 시스템

비관계형 데이터베이스

자바 자료구조와 유사한 영속적인 자료구조 제공(키는 객체 식별 역할)

크게 String, Set, Sorted, Set, Hash, List 데이터 형식 지원 

읽기 성능 증대를 위한 서버 측 복제 지원

쓰기 성능 증대를 위한 클라이언트 측 Sharding 지원

(출처: https://velog.io/@ayoung0073/database-redis )

 

p.  148

3.2.2 메모리 관리

가상 메모리(virtual memory)

메모리 관리 기법의 하나로 컴퓨터가 실제로 이용 가능한 메모리 자원을 추상화하여 이를 사용하는 사용자들에게 매우 큰 메모리로 보이게 만드는 것.

운영체제는 주어진 메모리의 크기 아래서 프로그램을 작은 조각으로 나누어 그증 일부만 메모리에 적재가 가능한 곳으로 비연속적으로 넣어준다. 프로그램의 일부분만 적재되어 많은 사용자를 수용할 수 있고, 모든 사용자가 메모리의 크기로부터 자유로울 수 있다. 사실은 제한적인 크기지만 엄청나게 큰 메모리가 있는 것처럼 여겨지기 때문에 가상 메모리라고 부른다.

 

가상 주소(logical address): 가상적으로 주어진 주소

실제 주소(physical address): 실제 메모리 상에 있는 주소

메모리관리장치(MMU): CPU 코어 안에 탑재되어 가상 주소를 실제 메모리 주소로 변환해주는 장치

(출처: https://jhnyang.tistory.com/247 )

사용자는 실제 주소를 의식할 필요 없이 프로그램을 구축할 수 있음.

 

페이지 테이블

가상 메모리는 가상 주소와 실제 주소가 매핑되어 있고 프로세스의 주소 정보가 들어 있는 '페이지 테이블'로 관리됨.

메모리의 커널 영역에 보관됨. 이때 속도 향상을 위해 TLB를 씀.

 

페이지

가상 메모리를 위해 모든 프로그램은 작은 조각들로 나눠지는데, 조각들의 크기를 모두 같도록 하면 한 조각을 페이지(Page)라 부르고, 서로 다르게 하면 조각들 각각을 세그먼트(Segment)라 부름. 페이지나 세그먼트는 그 크기가 메모리와 디스크 사이에서 한 번에 전송되는 전송 단위가 되는데 이것을 블록(Block)이라 부름. 가상 메모리 관리에서 페이지로 나누었을 경우를 페이징, 세그먼트로 나누었을 경우를 세그멘테이션 시스템이라고 부름.

 

가상 주소를 사용하는 이유: https://blog.naver.com/kunukunu/220520259198

 

TLB(Translation Lookaside Buffer)

가상 메모리 주소를 물리적인 주소로 변환하는 속도를 높이기 위해 사용되는 캐시

최그느에 일어난 가상 메모리 주소와 물리주소의 변환 테이블 저장

일종의 주소 변환 캐시

(출처: https://blog.naver.com/kgr2626/222147205118)

 

스와핑(swapping)

페이지 폴트가 발생했을 때 메모리에서 당장 사용하지 않는 영역을 하드디스크로 옮기고 하드디스크의 일부분을 메모리처럼 불러와 쓰는 것. ..(다른 이야기지만) 프로세스의 상태 변화에서 프로세스가 메모리 공간을 뺏기고 디스크로 나가야 하는 것과 나중에 다시 메모리로 돌아오는 것을 스와핑이라고 부른다.

 

페이지 폴트(page fault)

프로세스의 주소 공간(가상메모리공간)에는 존재하지만 컴퓨터의 RAM에는 없는 데이터에 접근했을 경우에 발생.

페이지 폴트와 그로 인한 스와핑 과정

1. CPU는 물리 메모리를 확인하여 해당 페이지가 없으면 트랩을 발생해서 운영체제에 알림.

2. 운영체제는 CPU의 동작을 잠시 멈춤.

3. 운영체제는 페이지 테이블을 확인하여 가상 메모리에 페이지가 존재하는지 확인하고, 없으면 프로세스를 중단하고 현재 물리 메모리에 비어 있는 프레임이 있는지 찾음. 물리 메모리에도 없다면 스와핑 발동.

4. 비어 있는 프레임에 해당 페이지를 로드하고, 페이지 테이블 최신화.

5. 중단했던 CPU를 다시 시작.

 

페이지(page)

가상 메모리를 사용하는 최소 크기 단위

 

프레임(frame)

실제 메모리를 사용하는 최소 크기 단위

메모리는 프레임이라 불리는, 페이지와 같은 크기로 나누어져 있으며 일련 번호가 매겨져 있다.

 

p. 150

스레싱(thrashing)

메모리의 페이지 폴트율이 높은 것을 의미하며, 이는 컴퓨터의 심각한 성능 저하를 초래함.

메모리에 너무 많은 프로세스가 동시에 올라가게 되면 스와핑이 많이 일어나서 발생하는 것.

페이지 폴트 -> CPU 이용률 낮아짐 -> 운영체제는 CPU가 한가하다고 생각하여 가용성 높이려고 더 많은 프로세스를 메모리에 올림... 악순환 반복으로 스레싱 발생.

해결 방법: 메모리 늘리기, HDD를 SSD로 바꾸기. 운영체제에서 해결할 수 있는 방법은 작업 세트와 PFF가 있음.

 

hdd

hard disk drive라고 부름. 컴퓨터의 주요 저장장치로 사용되며 내부레 플래터(디스크)를 여러 개 두고 데이터를 저장하는 용도로 쓰임.

sdd

solid state drive 또는 solid state disek라고 부름. 반도체를 이용하여 저장하는 장치. 저전력으로 빠르고 소음이 없음. 

 

작업 세트(working set)

프로세스의 과거 사용 이력인 지역성을 통해 결정된 페이지 집합을 만들어서 미리 메모리에 로드하는 것.

탐색에 드는 비용을 줄일 수 있고 스와핑도 줄일 수 있음

 

PFF(Page Fault Frequency)

페이지 폴트 빈도 조절 방법으로 상한선과 하한선을 만드는 방법.

상한선에 도달하면 프레임을 늘리고 하한선에 도달하면 프레임을 줄이는 것.

page fault가 적으면 process에 할당된 페이지 프레임수를 감소시키고 많으면 프로세스에 페이지 프레임을 더 많이 할당함.

(출처: https://deep-learning-challenge.tistory.com/21)

 

p. 151

메모리 할당

메모리에 프로그램을 할당할 때는 시작 메모리 위치, 메모리의 할당 크기를 기반으로 할당하는데, 연속할당과 불연속 할당으로 나뉨.

 

연속 할당

메모리에 '연속적으로' 공간을 할당하는 것.

고정 분할 방식과 가변 분할 방식이 있음.

 

고정 분할 방식(fixed partition allocation)

메모리를 미리 나누어 관리하는 방식.

메모리가 미리 나뉘어 있기 때문에 융통성이 없음.

내부 단편화 발생.

 

가변 분할 방식(variable partition allocation)

매 시점 프로그램의 크기에 맞게 동적으로 메모리를 나눠 사용함.

내부 단편화는 발생하지 않고 외부 단편화는 발생할 수 있음.

최초적합, 최적적합, 최악 적합이 있음.

 

최초적합(first fit) - 위쪽이나 아래쪽부터 시작해서 홀을 찾으면 바로 할당

최적적합(best fit) - 프로세스의 크기 이상인 공간 중 가장 작은 홀부터 할당. 계속 할당하다보면 남는 크기는 매우 작을 것이고 이후의 적재에 거의 활용되지 못하는 단점. 시간적 부담이 크다.

최악적합(worst fit) - 프로세스의 크기와 가장 많이 차이가 나는 홀에 할당. 홀의 발생을 억제할 수는 있지만 큰 빈 공간을 확보하기 어렵다. 시간적 부담이 크다.

-> 최초와 최적적합이 최악에 비해 더 효율적이고, 대부분의 경우 최초가 최적적합보다 실행속도가 빠르다.

 

내부 단편화(internal fragmentation)

프로세스가 필요한 양보다 더 큰 메모리가 할당되어 메모리 공간 낭비 발생.

프로세스는 실제로 사용하지 않는 메모리 영역을 가지고 있게 됨.

 

외부 단편화(external fragmentation)

남아있는 총 메모리 공간이 프로세스가 요청한 메모리 공간보다 크지만, 남아있는 공간이 연속적이지 않아 사용할 수 없는 경우

쪼개진 메모리 공간을 사용할 수 없으 메모릴 낭비 발생

프로세스들이 메모리를 할당하고 반납하는 과정에서, 사용할 수 있는 메모리 공간이 쪼개져서 발생

(내부 단편화, 외부 단편화 출처: https://zu-techlog.tistory.com/132)

 

홀(hole)

빈 공간이지만 크기가 아주 작아서 실제로는 할당될 가능성이 희박하고 결과적으로 낭비되는 공간

 

불연속 할당

메모리를 연속적으로 할당하지 않음.

 

페이징(paging)

동일한 크기의 페이지 단위로 나누어 메모리의 서로다른 위치에 프로세스를 할당.

홀의 크기가 균일하지 않은 문제가 없어지지만 주소변환이 복잡해짐

 

세그멘테이션(segmentaion)

페이지 단위가 아닌 의미 단위인 세그먼트로 나누는 방식

프로그램은 주(Main) 프로그램, 프로시저, 함수, 전역 또는 지역변수와 호출시 사용되는 스택 등으로 이루어져 있음. 

이렇게 논리적으로 하나하나의 단위를 세그먼트라 부름.

세그먼트 단위대로 (그 크기대로) 사상하고 적재하는 기법.

공유와 보안 측면에서 장점을 가지지만 홀 크기가 균일하지 않은 단점.

 

페이지드 세그멘테이션(paged segmentation)

페이징의 편리함과 세그멘테이션의 논리적 장점을 함께 가지기 위한 기법.

프로그램을 먼저 세그먼트로 나눈 후, 각 세그먼트는 다시 페이지들로 나뉜다.

 

p. 153

페이지 교체 알고리즘

메모리가 한정되어 있어 스와핑이 많이 일어남.

스와핑이 많이 일어나지 않도록 설계해야 하며, 페이지 교체 알고리즘을 기반으로 스와핑이 일어남.

 

오프라인 알고리즘(offline algorithm)

먼 미래에 참조되는 페이지와 현재 할당한느 페이지를 바꾸는 알고리즘.

사용할 수 없지만 가장 좋을 알고리즘이기 때문에 다른 알고리즘과의 성능 비교에 대한 상한기준(upper_boud)을 제공함.

 

FIFO(First In First Out)

가장 먼저 온 페이지를 교체 영역에 가장 먼저 놓는 방법

 

LRU(Least Recentle Used)

참조가 가장 오래된 페이지를 바꿈.

'오래된' 것을 파악하기 위해 각 페이지마다 계수기, 스택을 두어야 하는 문제점이 있음.

들어오는 페이지 순서 (top)스택(bottom)  
1 1     1번을 스택에 넣음
3 3 1   3번을 스택에 넣음
0 0 3 1 0번을 스택에 넣음
3 3 0 1 3번이 스택 안에 있으므로 3번을 스택의 top으로 옮김
5 5 3 0 5번을 스택에 넣는데 가장 오래된 1번과 스왑.
6 6 5 3 6번을 스택에 넣는데 가장 오래된 0번과 스왑.
3 3 6 5 3번이 스택 안에 있으므로 3번을 스택의 top으로 옮김.

NUR(Not Used Recently)

LRU에서 발전한 알고리즘.

clock 알고리즘이라고 함. 0과 1을 가진 비트를 둠. 1은 최근에 참조되었고 0은 참조되지 않음을 의미

시계방향으로 돌면서 0을 찾아 해당 프로세스를 교체하고 해당 부분을 1로 바꾸는 알고리즘.

1이 나타나면 0으로 바꿈.

 

LFU(Least Frequently Used)

가장 참조 횟수가 적은 페이지를 교체.

많이 참조된 페이지는 앞으로도 참조될 확률이 높을 것이란 판단에 근거.

 

MFU(Most Frequently Used)

많이 참조된 페이지는 충분히 참조가 이루어졌으므로 더 이상 참조되지 않을 것이란 판단에 근거하여 값이 가장 큰 페이지 선택.

 

lfu mfu 모두 편향된 시각에 근거하여 실제로 구현되는 경우는 매우 드묾.