반응형

Q1. PCA란 무엇인가?

-      주성분 분석은 높은 차원의 데이터의 중요한 정보를 유지하면서 차원을 줄이는 방법입니다. 주성분 분석을 하는 과정은 먼저 데이터를 표준화하고 공분산 행렬을 계산합니다. 다음으로 공분산 행렬의 고유값과 고유벡터를 계산합니다. 이때 고유값은 주성분의 중요도를 나타내고, 고유벡터는 주성분 벡터를 나타냅니다. 이 과정이 끝나면 고유값이 큰 순서대로 주성분을 선택하여 데이터를 새로운 좌표계로 변환하여 데이터를 저차원으로 축소합니다. 활용하는 분야는 이상치 탐지, 이미지 압축 등이 있습니다.

Q2. 딥러닝의 문제점과 해결 방법은?

-      대표적인 딥러닝의 문제점은 과적합과 학습 데이터 부족, 기울기 소실 문제가 있습니다. 과적합은 모델이 훈련 데이터에만 적합되어 새로운 데이터에 대한 일반화 성능이 떨어지는 현상입니다. 이를 해결하기 위한 방법은 L1 또는 L2 규제를 적용하여 가중치를 제한하거나, 조기 중단, 드롭 아웃과 같은 방법이 있습니다. 학습 데이터 부족은 딥러닝의 경우 많은 양의 훈련 데이터가 필요한데 데이터를 구하는 것이 어렵다는 문제가 있습니다. 이를 해결하기 위해 전이학습이나 데이터 증강과 같은 방법으로 해결할 수 있습니다. 기울기 소실 문제는 딥러닝 모델의 은닉층이 깊어질수록 역전파 과정에서 기울기 값이 점차 감소하다가 소실되어 학습이 어려워지는 현상입니다. 이를 해결하기 위해 활성화 함수로 Sigmoid가 아닌 ReLU를 쓰거나 배치 정규화를 하는 방법이 있습니다.

Q3. Linear Regression이 무엇인지 설명하시오.

-      선형회귀란 통계학과 머신러닝에서 기본적이고 간단한 회귀 분석 방법 중 하나입니다. 선형회귀는 하나 이상의 독립 변수와 종속 변수 사이의 선형 관계를 모델링하는 데 사용됩니다. , 데이터가 주어져 있을 때 주어진 데이터에 가장 잘 맞는 직선 또는 초평면을 찾아내어 독립 변수와 종속 변수 간의 관계를 모델링합니다. 주어진 데이터에 가장 잘 맞는 직선 또는 초평면은 종속 변수와 예측값의 차이인 오차가 최소가 되는 것을 뜻합니다.

Q4. RNN, LSTM, Attention 각각의 차이를 설명하시오.

-      RNN은 순환신경망으로써 시계열 데이터를 처리하기 위한 신경망 구조입니다. 시퀀스 데이터를 한 단계씩 처리하면서 내부 상태를 업데이트하여 이전 정보를 기억하는 방식이기 때문에 시퀀스 길이가 길어지면 이전 정보가 사라져 정확도가 떨어지고 장기 의존성 문제에 취약하다는 단점이 있습니다.

-      LSTMRNN의 장기 의존성 문제를 해결하기 위해 고안된 모델입니다. LSTMRNN의 히든 상태에 셀 상태를 사용하여 보다 긴 시퀀스 데이터를 처리할 수 있습니다.

-      Attention은 입력의 특정 부분에 집중하여 중요한 정보를 추출하고 출력에 반영하는 시퀀스 데이터를 처리하는 데 사용되는 메커니즘입니다. 주로 문서 번역이나 요약과 같은 자연어 처리 분야에서 많이 활용됩니다.

Q5. AI, ML, DL의 차이점을 각각 설명하시오.

-      AI는 인간의 지능을 컴퓨터에 구현하는 분야로써 가장 포괄적인 개념입니다.

-      ML은 인공지능의 하위 분야로 데이터를 통해 자동으로 규칙을 훈련하는 알고리즘을 연구하는 분야로 통계학과 밀접하며 주로 정형화된 데이터에 적합합니다.

-      하지만 현실에 존재하는 대부분의 데이터는 비정형 데이터가 많은데 이러한 경우 인공 신경망을 사용하여 데이터를 학습하는 ML 하위 분야가 DL입니다.

Q6. Eigenvector Eigenvalue가 무엇인지 각각 설명하고 왜 중요한지 설명하시오.

-      어떤 행렬 A와 열 벡터를 곱하는 것이 선형 변환입니다.

-      고유벡터는 선형 변환했을 때 방향은 변하지 않고, 크기만 변하는 벡터를 뜻하고 행렬이 데이터를 어떻게 변환시키는지를 나타내는 중요한 방향성 정보를 나타내기 때문에 중요합니다.

-      고유값은 해당 고유벡터에 대한 스칼라 값으로, 해당 벡터가 변환되는 크기를 갖는데 행렬이 얼마나 데이터를 확대 또는 축소하는지를 나타내는 중요한 정보를 나타내기 때문에 중요합니다.

Q7. 지도 학습, 비지도 학습, 강화 학습의 정의와 종류를 설명하시오.

-      지도 학습과 비지도 학습, 강화 학습은 모두 머신러닝의 주요 학습 방법입니다. 먼저, 지도 학습은 정답 레이블이 있는 학습 데이터를 사용하여 모델을 학습하는 방식입니다. 예시로는 회귀와 분류가 있습니다.

-      비지도 학습은 지도 학습과는 다르게 정답 레이블이 학습 데이터를 사용하여 모델을 학습하는 방식입니다. 예시로는 클러스터링과 차원 축소가 있습니다.

-      강화 학습은 에이전트가 환경과 상호 작용하며 보상을 최대화하도록 학습하는 방식입니다.

Q8. Singular value decomposition이란 무엇인지 설명하시오.(SVD)

-      행렬 AU x Σ x V 로 분해하는 기법을 특잇값 분해라고 합니다. 이때, UAA에 고유벡터를 모아 놓은 직교행렬입니다. VAA의 고유벡터를 모아 놓은 직교행렬입니다. 따라서, Σ 는 그 둘의 공통인 고유값의 양의 제곱근을 의미합니다. 특잇값 분해를 통해 행렬의 중요한 정보를 요약해서 표현할 수 있고 행렬 계산을 간소화하는 데 도움이 됩니다.

Q9. Precision, Recall, F1 Score는 무엇이고 각각 왜 사용하는지 설명하시오.

-      정밀도, 재현율, F1 Score는 주로 이진분류 모델의 성능을 평가하기 위한 척도로 사용됩니다.

-      먼저, 정밀도는 모델이 참으로 예측한 것 중에서 실제로 참인 샘플의 비율을 뜻합니다. , 모델이 얼마나 정확하게 예측을 잘 하는지를 뜻합니다.

-      다음으로 재현율은 실제로 참인 샘플 중에서 모델이 참으로 예측한 샘플의 비율을 뜻합니다. , 모델이 얼마나 실제 예측해야 하는 클래스를 잘 찾아내는지를 뜻합니다.

-      마지막으로, F1 Score는 정밀도와 재현율의 조화평균을 나타내는 값입니다. 이는 모델이 정밀도와 재현율을 모두 고려하여 성능을 판단할 수 있도록 합니다.

Q10. MLE MAP의 가장 큰 차이점은 무엇인지 설명하시오.

-      MLEMAP는 모두 확률 모델에서 모수를 추정하는 방법입니다. 이 둘의 가장 큰 차이점은 사전 확률 분포를 사용하는지 여부입니다.

-      MLE는 주어진 데이터의 가능성(likelihood)를 최대화하는 모수를 추정하는데, 이때, 사전 확률 분포를 사용하지 않습니다.

-      MAP는 주어진 데이터의 가능성과 사전 확률의 곱(posterior probability)을 최대화하는 모수를 추정하는데, 이때, 사전 확률 분포를 사용합니다.

Q11. 활성화 함수의 종류를 나열하고 각각 설명하시오.

-      활성화 함수에는 시그모이드 함수, 하이퍼볼릭 탄젠트 함수, ReLU 함수, 소프트맥스 함수 등이 있습니다.

-      먼저, 시그모이드 함수는 입력값을 0~1 사이의 값으로 변환하는 함수로써 S자 모양의 그래프를 가지는 함수입니다. 그러나 출력값이 0 또는 1에 수렴하기 때문에 기울기 소실이 발생하는 문제가 있습니다.

-      하이퍼볼릭 탄젠트 함수는 입력값을 -1~1 사이의 값으로 변환하는 함수입니다. 시그모이드와 유사하지만 출력 범위가 -1부터 1로 확장되어 기울기 소실 문제를 완화합니다.

-      렐루 함수는 0이하의 입력값은 0으로, 0보다 큰 경우에는 입력값을 그대로 출력하는 함수입니다. 렐루 함수는 이러한 특징 때문에 역전파 과정에서 기울기 소실 문제가 발생하지 않아 딥러닝 모델의 활성화 함수로 많이 사용됩니다.

-      소프트 맥스 함수는 주로 다중 클래스 분류의 출력층에 사용되는 활성화 함수로 입력값을 각 클래스에 대한 확률로 변환하는 함수입니다.

Q12. Backpropagation이 무엇인지 설명하시오.

-      역전파 알고리즘은 인공 신경망을 학습시키는 알고리즘입니다. 역전파 알고리즘은 순전파를 통해 출력값과 실제 값 사이의 오차를 계산하고 이 오차를 역방향으로 전파하여 각 층의 가중치와 편향을 업데이트하는 과정을 반복하는 알고리즘입니다.

Q13. Convolution Layer가 무엇인지 설명하시오.

-      Convolution Layer는 필터 또는 커널이라고 불리는 작은 행렬을 사용하여 입력 데이터의 특징(feature)을 추출하는 층입니다.

Q14. CNN에 대해서 설명하시오.

-      CNN은 합성곱 신경망으로써, 주로 이미지 처리 분야에서 활용됩니다. CNN은 이미지를 입력으로 받아 합성곱층의 필터를 통해 특징 맵을 생성하고 풀링층에서 풀링 연산을 통해 특징 맵의 크기를 줄입니다. 특징 추출을 마친 특징 맵을 평탄화하여 완전 연결층에서 회귀 또는 분류를 진행합니다.

Q15. FC Layer가 무엇인지 설명하시오.

-      FC Layer는 완전 연결층이라고 불리는 인공 신경망의 한 종류로, 이전 층의 모든 뉴런과 연결된 층입니다. 이러한 완전 연결층은 주로 인공 신경망의 마지막 부분에 위치하며 주로 분류나 회귀와 같은 최종 작업을 수행하는 데 사용됩니다.

Q16. 과대적합과 과소적합이 무엇인지 설명하고 각각의 문제점과 해결방법을 설명하시오.

-      과대적합은 모델이 훈련 데이터에 너무 맞추어져서 새로운 데이터에 대한 성능이 저하되는 현상입니다. 이를 해결하기 위해서는 더 다양한 데이터로 훈련하거나 가중치의 크기를 제한하는 L1 또는 L2 규제를 적용하여 모델의 복잡도를 감소시킬 수도 있습니다. 또한 딥러닝에서는 드롭아웃을 사용할 수 있습니다.

-      과소적합은 모델이 너무 단순하여 훈련 데이터의 패턴을 충분히 학습하지 못하는 현상입니다. 모델의 층을 늘리거나 학습 반복 횟수나 학습률 등을 조정하여 모델이 더 많은 학습을 하도록 할 수 있습니다.

Q17. Batch Normalization이 무엇인지 설명하시오.

-      배치 정규화는 딥러닝 모델의 안정성과 학습 속도를 향상시키기 위한 기법 중 하나로써, 각 층의 입력 데이터를 평균과 표준편차를 이용하여 정규화하는 것입니다.

Q18. Lasso Ridge의 차이를 설명하시오.

-      LassoL1 규제라고도 하며, 가중치의 절댓값의 합을 패널티로 사용하여 모델의 복잡도를 제어합니다. 이때, 패널티는 일부 계수를 0으로 만드는 것인데 이를 통해 중요한 특징만 선택하고 나머지 특징은 제거하여 모델을 더 간결하게 만들 수 있습니다.

-      RidgeL2 규제라고도 하며 가중치의 제곱합을 패널티로 사용하여 모델의 복잡도를 제어합니다. 이때, 패널티는 모든 계수를 0에 가까워지게 하여 모델의 계수를 안정적으로 유지하여 예측 오차를 줄일 수 있습니다.

-      요약하면, Lasso는 특성 선택을 수행하고 해석 가능한 모델을 만들어내는 데에 더 적합하며, Ridge는 과적합을 방지하면서 모든 특성을 유지하는 데에 더 적합합니다.

Q19. SVM에 대해서 설명하시오.

-      SVM은 서포트 벡터 머신의 약자로, 분류와 회귀 문제에 사용되는 지도 학습 모델입니다. SVM은 데이터를 분류할 때 각 클래스를 잘 구분하는 결정 경계를 찾는 것을 목표로 합니다.

Q20. Sample Variance에 대해 설명하시오.

-      표본 분산은 각 데이터들이 평균으로부터 얼마나 퍼져 있는지를 나타내는 통계량입니다. 표본 분산을 구하기 위해서는 먼저, 각 데이터에서 평균을 빼고 제곱을 합니다. 그리고 이렇게 구한 제곱값들의 합을 구하고 이를 전체 데이터의 개수로 나누어 구할 수 있습니다.

Q21. train, validation, test로 나누는 이유를 설명하시오.

-      train, validation, test로 나누는 이유는 모델의 일반화 성능을 평가하고 과적합을 방지하기 위함에 있습니다. 모델 학습 과정에서 train 데이터에만 너무 최적화되면 과적합이 발생하므로 validation 데이터로 과적합을 방지할 수 있습니다.

Q22. 차원의 저주가 무엇인지 설명하시오.

-      차원의 저주는 데이터의 차원이 증가함에 따라 발생하는 문제를 말합니다. 고차원에서는 데이터 간의 거리가 멀어지고 데이터가 희소해지며, 적절한 학습 데이터를 확보하기 어려워 학습과 일반화에 어려움이 발생합니다. 차원 축소나 중요특징만을 선택하는 방법 등으로 차원의 저주를 해결할 수 있습니다.

Q23. Cross Validation에 대해 설명하시오.

-      교차 검증은 모델의 성능을 보다 정확하게 평가하기 위해 데이터를 여러 부분으로 나누고 각 부분을 번갈아 가면서 학습과 평가에 사용하는 방법입니다. 이를 통해 과적합을 방지하고 모델의 일반화 성능을 향상시킬 수 있습니다.

-      먼저, 원본 데이터 세트를 k개의 부분 집합인 폴드로 나눕니다. 그리고 k개의 폴드 중 하나를 검증 세트로 사용하고 k-1개의 폴드를 학습에 사용하여 학습하고 검증하는 과정을 k번 반복하고 모든 폴드에 대한 평균 평가 결과를 통해 모델의 성능을 구할 수 있습니다.

Q24. Entropy에 대해 설명하시오.

-      엔트로피 정보의 불확실성에 대한 척도이다. 확률 변수의 가능한 모든 상태에 대한 정보를 고려하여, 그 상태가 발생할 확률에 따라 가중치를 더한 값이다. 상황이 더 불확실하거나 무질서하다면 엔트로피 값은 높아지고, 반대로 상황이 더 확실하거나 질서 정연하다면 엔트로피 값은 낮아진다.

Q25. Cross-Entropy에 대해 설명하시오.

-      교차 엔트로피는 정보 이론과 머신러닝에서 사용되는 개념으로, 확률 분포 간의 차이를 측정하는 지표입니다. 실제 타깃 클래스와 모델의 예측 확률 분포 간의 차이를 계산하여 모델 성능을 평가하는 손실 함수로 사용됩니다.

Q26. Gradient Descent에 대해 설명하시오.

-      경사하강법은 함수의 최솟값을 찾는 최적화 알고리즘입니다. 함수의 기울기를 계산하여 현재 위치에서 가장 가파르게 내려가는 방향으로 이동하고, 이 과정을 반복하여 최솟값에 도달하는 방식입니다.

Q27. Optimizer의 종류와 차이를 설명하시오.

-       

Q28. Ensemble에 대해 설명하시오.

-      여러 개의 다른 모델을 결합하여 더 강력하고 안정적인 예측을 만드는 기술입니다. 앙상블은 단일 모델보다 더 나은 성능을 달성하고 과적합을 줄이는 데 도움이 됩니다.

-      앙상블 학습 종류로는 배깅과 부스팅이 있습니다.

-      배깅은 동일한 모델을 여러 번 독립적으로 학습하고 각 모델의 예측을 평균화하여 최종 예측을 만듭니다. 대표적인 앙상블 기법으로는 랜덤 포레스트가 있습니다. 랜덤 포레스트는 다수의 의사 결정 트리를 배깅하여 예측합니다.

-      부스팅은 여러 개의 약한 학습기를 순차적으로 학습하고 이전 모델의 오차에 가중치를 부여하여 다음 모델을 학습합니다. 대표적인 앙상블 기법으로는 그래디언트 부스팅이 있습니다. 그래디언트 부스팅은 잔여 오차를 최소화하는 방향으로 학습하는 방식입니다.

Q29. Linearly Independent가 무엇인지 설명하시오.

-      선형 독립은 어떤 벡터도 다른 벡터들의 선형 결합으로 나타낼 수 없을 때 그 벡터들을 선형 독립이라고 합니다.

Q30. Null Space에 대해서 설명하시오.

-      영 공간은 행렬 A에 의해 영 벡터로 변환되는 모든 벡터들의 공간입니다.

Q31. Rank에 대해서 설명하시오.

-      Rank는 선형대수학에서 행렬이 나타낼 수 있는 벡터 공간의 차원입니다.

Q32. Determinant가 의미하는 바가 무엇인지 설명하시오.

-      행렬식은 정사각행렬이 나타내는 선형변환이 공간의 부피를 확대하거나 줄이는지를 나타내는 지표로 사용됩니다. 행렬식의 값은 스칼라 값으로 나오는데 만약 0이라면 역행렬이 존재하지 않는다는 것을 뜻합니다.

Q33. KNN이 무엇인지 설명하시오.

-      KNN은 지도 학습 알고리즘 중 하나입니다. 새로운 데이터가 들어왔을 때 기존 데이터 중 비슷한 속성의 그룹으로 분류하는 알고리즘입니다. KNN은 컴퓨터 비전 분야에서 얼굴 인식, 의료용 데이터에서 질병 감지 등에 활용됩니다.

Q34. Stack Queue, Tree Heap의 구조에 대해 설명하시오.

-      스택은 후입선출의 자료구조로써 가장 마지막에 입력된 데이터가 가장 먼저 나가는 자료구조입니다. 큐는 스택과는 반대로 선입선출의 자료구조로써 가장 먼저 입력된 데이터가 가장 먼저 나가는 자료구조입니다. 함수의 호출의 경우 스택의 예시이며 작업 대기열 처리는 큐의 예시라고 할 수 있습니다.
힙은 특정한 규칙을 갖는 완전 이진 트리 형태의 자료 구조입니다. 최대 힙의 경우, 부모 노드는 항상 자식 노드보다 크거나 같고, 최소 힙의 경우, 부모 노드는 항상 자식 노드 보다 작거나 같습니다. 이러한 특징으로 인해 최댓값이나 최솟값을 빨리 찾을 수 있다는 장점이 있습니다.

Q35. Array Linked List의 장/단점을 설명하시오.

-      배열의 경우 구현이 간단하며 인덱스를 사용하여 원소에 접근할 수 있기 때문에 접근 속도가 빠르다는 장점이 있지만 원소의 삽입과 삭제 시 그 뒤에 있는 원소 혹은 앞에 있는 원소들이 한 칸 씩 이동해야 하기 때문에 비용이 높다는 단점이 있습니다.
결 리스트의 경우, 크기를 정할 필요없이 동적으로 할당하면 되기 때문에 메모리 낭비를 줄일 수 있다는 장점이 있지만, 구현이 배열보다는 복잡하고 연결된 노드를 따라 탐색을 해야 하기 때문에 접근 속도가 느리다는 단점이 있습니다.

Q36. Hash Table Time Complexity를 설명하시오.

-      해시 테이블은 파이썬의 Dictionary 구조와 동일하게 키와 값의 쌍으로 데이터를 저장하는 자료구조로써 빠르게 데이터를 검색할 수 있습니다. 해시 테이블의 평균 시간 복잡도는 O(1)입니다.

Q37. BST(Binary Search Tree) Binary Tree에 대해 각각 설명하시오.

-      진 트리는 자식 노드를 최대 2개까지 가질 수 있는 트리 형태의 자료구조입니다. 진 탐색 트리는 이진 트리의 일종이지만 왼쪽 자식 노드는 부모 노드보다 작고 오른쪽 자식 노드는 부모보다 큰 값이 오는 규칙이 적용되는 이진 트리입니다. 이를 통해 이진 탐색이 가능하여 빠르게 데이터를 탐색할 수 있다는 장점이 있지만 트리가 한쪽으로 편향되면 탐색 효율이 떨어질 수 있다는 문제점이 있습니다.

Q38. Linked List에서 Cycle이 형성되었는지 어떻게 확인할 수 있는지 설명하시오.

-      개의 포인터를 사용하여 사이클을 감지할 수 있습니다. 먼저, 하나의 포인트는 2칸씩 이동하고, 나머지 포인트는 1칸씩 이동합니다. 사이클이 없다면 2칸씩 이동하는 포인트가 null을 가리키게 되고 사이클이 있다면 두 포인트가 만나게 됩니다.

Q39. Circular Queue에 대해서 설명하시오.

-      반적인 큐와 달리, 원형으로 구성되어 있어서 front rear 원형을 따라 이동합니다. 이것은 배열이나 연결 리스트를 사용하여 구현될 있습니다.

Q40. Local Minima를 해소하기 위한 방법을 설명하시오.

-      로컬 미니마는 함수나 그래프에서 특정 지역에서 최소값을 나타내는 지점을 의미합니다. 그런데 딥러닝 모델은 대부분 복잡한 비선형 함수이며, 이러한 경우 많은 로컬 미니마가 존재하여 모델의 성능이 저하될 수 있습니다. 이를 해소하기 위해서 아다그라드, 모멘텀, 아담과 같은 최적화 알고리즘을 적용하여 해소할 수 있습니다.

Q41. Normalization Regularization의 차이를 설명하시오.

-      Normalization은 데이터의 스케일을 조정하여 학습 과정을 안정화시키고 최적화하는 기법입니다.

-      Regularization은 모델의 복잡성을 제어하고 과적합을 방지하기 위한 기법입니다.

Q42. Activation Function에서 ReLU를 많이 사용하는 이유가 무엇인지 설명하시오.

-      ReLU는 음수 입력에 대해 0을 출력하고 양수 출력에 대해서는 입력 값을 출력하는 활성화 함수입니다. ReLU를 많이 사용하는 이유는 양수 입력에 대해 그레이디언트가 1로 유지되기 때문에 기울기 소실 문제를 해결할 수 있고 계산 효율성이 높아 많이 사용합니다.

Q43. Dropout에 대해 설명하시오.

-      Dropout은 신경망 학습 과정에서 과적합을 방지하고 일반화 성능을 향상시키기 위한 정규화 기법 중 하나입니다. Dropout을 적용하면 각 훈련 과정 중에 각 뉴런의 일부를 무작위로 제거합니다.

Q44. Loss Function에 대해 설명하시오.

-      실 함수란 모델 학습 과정에서 실제 값과 예측 값의 오차를 측정하는 함수입니다. 대표적으로 회귀 문제에서는 평균 제곱 오차(MSE) 평균 절대 오차(MAE)가 있고 분류 문제에서는 교차 엔트로피 손실과 이진 교차 엔트로피 손실이 주로 사용됩니다.

Q45. 역행렬을 어떻게 구할 수 있는지 설명하시오.

-      역행렬을 가우스-조던 소거법을 통해 구할 수 있습니다. 행렬 A가 있으면 항등행렬과 결합하여 첨가행렬을 만듭니다. 첨가행렬이란 행렬 A를 왼쪽에 두고 항등행렬을 오른쪽에 놓은 행렬을 뜻하고, 첨가행렬에서 가우스-조던 소거법을 통해 전개 후 왼쪽의 정사각행렬을 항등행렬로 만들면 오른쪽에 놓이는 행렬이 A의 역행렬이 됩니다.

Q46. Normal Distribution에 대해 설명하시오.

-      규 분포는 종모양을 가지고 있고 중심이 평균인 분포입니다.

Q47. CLT(Central Limit Thorem)에 대해 설명하고 왜 유용한지 설명하시오.

-      심극한정리란 랜덤 샘플을 여러 개 뽑아서 평균을 만든다면 표본의 갯수가 많을수록 정규분포에 가까워진다는 것입니다. 이는 충분히 큰 표본을 추출했을 때 표본 평균의 분포를 예측할 수 있고 여러 통계적 분석에서 활용할 수 있기 때문에 유용합니다.

Q48. Logistic Regression이 무엇이고 언제 사용할 수 있는지 설명하시오.

-      로지스틱 회귀란 이진 분류를 위한 방법으로 logit을 선형 회귀함으로써 이진 분류한 것입니다. 여기서 logit이란 log-odds인데, 여기서 odds는 승산을 의미하고 만약 이길 확률이 q라고 했을 때 q/1-qodds라고 하고 여기에 log를 취한 것이 logit입니다. 이름은 회귀라고 되어 있으나 분류 모델을 구성할 때 사용할 수 있습니다.

Q49. L1, L2 정규화가 무엇인지 각각 설명하시오.

-      L1 정규화와 L2 정규화 모두 모델을 훈련시킬 때 모델의 과적합을 방지하기 위한 규제 방법입니다.

-      먼저, L1 정규화는 가중치의 절대값의 합을 정규화 항으로 추가합니다. L1 정규화의 경우, 모델의 가중치를 0에 가깝게 만들어 특정 가중치를 선택적으로 제거하여 덜 중요한 특징을 무시하도록 합니다.

-      다음으로, L2 정규화는 가중치의 제곱합을 정규화 항으로 추가합니다. L2 정규화의 경우, 모델의 가중치를 0에 가깝게 만들기는 하지만 모든 가중치를 골고루 분포하도록 한다는 점에서 L1 정규화와 차이가 있습니다.

Q50. Independence(독립성)에 대해 설명하시오.

-      독립성은 두 개 이상의 사건이 서로 영향을 미치지 않고 독립적으로 발생하는 상황을 나타냅니다. , 하나의 사건이 발생함으로써 다른 사건이 발생할 확률에 아무런 영향을 주지 않는 것을 의미합니다. 예를 들어, 동전을 두 번 던졌을 때 첫 번째 던지기의 결과가 앞면일지 뒷면일지는 두 번째 던지기의 결과에 영향을 주지 않습니다. 따라서 두 번째 던지기의 결과는 첫 번째 던지기의 결과와 독립적입니다.

Q51. Gradient Vanishing이 생기는 이유는 무엇이고 해결하는 방법이 무엇이 있는지 설명하시오.

-      기울기 소실은 심층 신경망에서 발생하는 문제로 역전파 과정에서 신경망의 하위층으로 갈수록 기울기가 급격히 감소하여 더 이상 학습이 이루어지지 않는 현상입니다. 이를 해결하기 위해서는 sigmoidtanh 같은 활성화 함수가 아닌 ReLu 함수를 사용하는 방법이 있고 배치 정규화를 사용하는 방법이 있습니다.

Q53. Max Pooling하는 이유를 설명하시오.

-      Max PoolingCNN에서 주어진 영역에서 최댓값을 취하는 연산을 수행하는 것입니다. 이를 통해 중요한 특징만 추출하여 과적합을 방지할 수 있고 학습 속도를 빠르게 할 수 있어 Max Pooling을 사용합니다.

Q54. 하이퍼파라미터 튜닝은 어떻게 할 수 있는지 설명하시오.

-      하이퍼파라미터 튜닝은 모델의 성능을 향상시키기 위해 매개변수들을 조정하는 과정입니다. 대표적으로 그리드 탐색이나 랜덤 탐색과 같은 방법이 있는데,

Q55. 가우시안 분포에 대해 설명하시오.

-      가우시안 분포란 정규분포로 불리는 종 모양의 대칭적인 연속 확률 분포의 한 종류입니다. 곡선의 중심은 평균값이고 표준편차는 곡선의 폭을 나타냅니다. 가우시안 분포는 중심극한정리와 밀접한 관련이 있어서 많은 자연 현상과 데이터의 분포를 설명하는 데 널리 사용됩니다.

Q56. 조건부 확률 분포에 대해 설명하시오.

-      조건부 확률 분포란 한 사건이 다른 사건에 대한 조건으로 주어졌을 때 발생할 확률 분포를 의미합니다. , 하나의 사건이 발생했을 때 다른 사건이 발생할 확률을 설명하는 확률 분포입니다.

Q57. 베이지안 룰에 대해 설명하시오.

-      베이지안 룰은 사후 확률을 구하기 위한 공식으로 사후확률을 사전확률과 우도의 곱을 가지고 표현한 식입니다.

Q58. 행렬의 4가지 Space에 대해 설명하시오.

-      행렬4가지 공간으로는 열공간, 행공간, 영공간, 좌영공간이 있습니다.

-      먼저 열공간은 열벡터의 선형 결합으로 span되는 공간을 뜻하고 행공간은 행벡터의 선형 결합으로 span되는 공간을 뜻합니다.

-      그리고 영공간은 선형 결합에 의해 영 벡터로 매핑되는 모든 벡터들의 집합이고 좌영공간은 전치 행렬의 영공간을 뜻합니다.

Q59. List Dictionary의 차이에 대해 설명하시오.

-      리스트와 딕셔너리는 파이썬에서 사용되는 자료구조로써 리스트는 순차적이며 수정 가능한 객체들의 집합이고 배열과 매우 흡사합니다. 딕셔너리는 키와 값의 쌍으로 이루어진 비순차적인 집합입니다.

Q60. 확률과 통계의 차이를 설명하시오.

-      확률과 통계는 매우 밀접한 관계가 있지만 확률의 경우 어떤 사건이 발생할 가능성을 측정하는 것이고 통계는 데이터를 수집하고 분석하여 패턴을 발견하고 결론을 도출하는 방법론입니다.

Q61. Bias가 무엇인지 설명하고 이를 통제하는 방법은 무엇인지 설명하시오.

-      편향은 모델의 예측 값과 실제 값이 얼마나 멀리 떨어져 있는지를 나타내는 개념입니다. , 편향이 크다면 실제 값과 예측 값 사이에 큰 차이가 있다는 것으로 과소적합이며 편향이 작다면 반대로 과대적합임을 의미합니다. 이를 통제하기 위해서는 규제 기법을 통해 모델의 복잡성을 조정하거나 다양한 데이터를 수집하여 편향을 최소화할 수 있습니다.

Q62. 평균(mean)과 중앙값(median) 중에 어떤 케이스에서 어떤 것을 사용해야 하는지 설명하시오.

-      평균은 모든 데이터의 합을 총 데이터의 개수로 나눈 값으로써 데이터의 전반적인 경향을 파악하는데 유용하지만 이상치가 존재할 경우 이상치에 의해 대표성을 잃을 수 있습니다.

-      이상치가 있을 때에는 중앙값을 대푯값으로 쓰는 것이 좋은데 중앙값이란 크기순으로 정렬했을 때 가장 가운데 위치한 값을 의미합니다.

Q63. ROC Curve에 대해 설명하시오.

-      ROC 곡선은 이진 분류 모델의 성능을 평가하는 데 사용되는 그래프입니다.  ROC 곡선 아래 영역은 모델의 전반적인 성능을 요약하는 지표입니다. AUC 값이 1 가까울수록 모델의 성능이 우수하며, 0.5 가까울수록 무작위 분류와 비슷한 성능을 갖습니다.

Q64. 뉴럴넷의 가장 큰 단점은 무엇이고 이를 위해 나온 One-Shot Learning은 무엇인지 설명하시오.

-      뉴럴넷의 가장 큰 단점은 데이터의 양과 품질에 대한 의존성입니다. 이러한 한계를 극복하기 위해 나온 것이 One-Shot Learning이고 하나의 샘플 이미지만으로 새로운 클래스를 인식하는 것을 의미합니다.

Q65. 그래프 자료구조에 대해 설명하고 BFS DFS에 대해 설명하시오.

-      그래프 객체 간의 관계를 표현하는데 사용되는 자료 구조입니다. 그래프노드와 노드를 연결하는 간선으로 이루어져 있습니다.

-      BFSDFS는 그래프를 탐색하는 알고리즘입니다. BFS는 너비우선탐색으로 시작 노드에서 시작하여 인접한 모든 노드를 방문한 후에는 해당 노드의 인접한 노드를 방문하는 방식으로 진행됩니다. 이 과정을 반복하여 그래프의 모든 노드를 방문합니다. BFS는 큐를 사용하여 구현할 수 있습니다. DFS는 깊이우선탐색으로 시작 노드에서 시작하여 한 노드의 모든 자식을 우선적으로 탐색하고, 그 다음 자식 노드로 이동합니다. 이 과정을 모든 자식 노드를 방문하고 나서야 부모 노드로 돌아가서 반복합니다. DFS는 스택이나 재귀 함수를 사용하여 구현할 수 있습니다.

Q66. Type 1 Error Type 2 Error의 차이를 설명하시오.

-      1종 오류는 옳은 귀무 가설을 기각하는 경우입니다. , 실제로는 차이가 없는데 차이가 있다고 잘못 결론 내린 경우입니다. 2 오류는 잘못된 귀무 가설을 채택하는 경우입니다. , 실제로 차이가 있는데 차이가 없다고 잘못 결론 내린 경우입니다.

Q67. Bagging이 무엇인지 설명하시오.

-      배깅은 동일한 모델을 여러 번 독립적으로 학습하고 각 모델의 예측을 평균화하여 최종 예측을 만드는 것입니다.

Q68. Chain Rule이 무엇인지 설명하시오.

-      연쇄 법칙은 미분에서 합성 함수의 도함수를 구하는 규칙입니다. 이때, 합성 함수란 여 러 함수를 조합하여 새로운 함수를 만드는 것을 말합니다. 연쇄 법칙을 통해서 복잡한 함수의 미분을 간단하게 계산할 수 있고 역전파 알고리즘에서 활용됩니다.

Q69. LiDAR에 대해 설명하시오.

-      라이다빛을 사용하여 거리를 측정하는 기술입니다. 라이다 센서는 자율 주행 자동차, 로봇, 지형 지도 작성 등 다양한 응용 분야에서 사용됩니다. 자율 주행 자동차에서는 라이다 센서가 주변 환경을 실시간으로 감지하여 도로 상황을 분석하고 안전한 주행 경로를 계획하는 데 사용됩니다.