컴퓨터공학47 인공지능 1. 퍼셉트론 서론 퍼셉트론 이론은 인공지능 분야의 초석을 이루는 중요한 개념이다. 본 블로그는 퍼셉트론의 기본 원리, 구현 방법, 그리고 이론의 한계점을 포괄적으로 다룬다. 또한, 퍼셉트론의 한계를 극복하기 위한 확률 생성 모델, 손실 함수의 통계적 해석, 베르누이 분포 및 교차 엔트로피에 대해서도 상세히 설명한다. 이를 통해 독자들은 퍼셉트론 이론의 깊이 있는 이해는 물론, 인공지능 모델 설계에 있어서의 중요한 개념들을 파악할 수 있을 것이다. 퍼셉트론 퍼셉트론은 인공 신경망의 가장 기본적인 요소로, 간단한 입력을 받아 출력을 결정하는 알고리즘이다. 1957년 프랑크 로젠블라트(Rosenblatt)에 의해 처음 소개된 이후, 퍼셉트론은 인공지능 연구에 있어 기본적인 빌딩 블록으로 자리 잡았다. 본 소개에서는 퍼셉트.. 2024. 4. 1. AI를 배우기 전 행렬 이론 기초 서론 AI를 배우는 데 많은 수학적 이론을 알아둬야 한다. 그 중 다른 타 수학 이론과 달리 행렬은 대한민국 교육과정에서 빠져 행렬을 정리해보았다. 벡터란? 여태까지 사용한 숫자는 스칼라이다. 스칼라 (scalar)란 차원(dimension)이 없는 숫자를 의미한다. 반면 벡터 (vector)란 개의 숫자 모음 ( 차원 벡터), "크기" 와 "방향" 이 같으면, 같은 벡터를 의미한다. 여기서 나오는 법칙이 바로 벡터의 동등성 원칙이다. 두 벡터가 같다면 벡터의 크기가 같고, 방향이 같음을 의미한다. 벡터가 왜 인공지능에서 중요하냐면 학습하는 데이터 "상대적"인 위치가 크기보다 더 중요하기 때문이다. 벡터 연산 벡터의 연산은 아래와 같이 이루어진다. 벡터 내적 벡터 내적은 두 벡터 간에 대응하는 성분들을 .. 2024. 3. 14. 기계학습 12. Convolutional Neural Networks(CNN) 서론 컨볼루션 신경망(Convolutional neural networks, CNNs)은 뇌의 시각 피질 연구에서 비롯되어 이미지 인식 분야에서 1980년대부터 사용되어 왔다. 지난 몇 년 동안 계산 능력의 증가, 이용 가능한 훈련 데이터 양의 증가, 그리고 깊은 신경망을 훈련하기 위한 기술적인 기교들이 발전함에 따라, CNNs는 어려운 시각 작업에서 초인간적인 성능을 달성하는 데 성공했다. 뿐만 아니라, CNNs는 시각 인식에 국한되지 않고 음성 인식 및 자연어 처리와 같은 다양한 작업에서도 성공적으로 활용되고 있다. Convolutional Layers 첫 번째 컨볼루션 레이어(Convolution Layers)의 뉴런들은 입력 이미지의 모든 픽셀과 직접 연결되지 않으며, 오직 각 뉴런은 자신의 수용.. 2023. 12. 12. 기계학습 11. Training Deep Neural Networks 서론 딥러닝에서 복잡한 문제를 해결하기 위해 깊은 신경망(DNN)을 사용할 때 발생하는 주요 문제들이 있다. 첫째, Vanishing and Exploding Gradients Problem은 깊은 네트워크에서 역전파 과정에서 그래디언트가 점차 작아지거나 커지는 문제이다. 둘째, 부족한 훈련 데이터와 비용 문제는 많은 레이어와 파라미터를 가진 네트워크를 훈련시키기 위해 충분한 양의 레이블이 지정된 데이터가 필요하다. 셋째, 훈련 속도의 문제는 대규모 네트워크의 훈련이 느릴 수 있다. 마지막으로, 과적합 위험은 수백만 개의 파라미터를 가진 모델이 훈련 데이터 부족이나 노이즈로 인해 과적합될 위험이 크다. 이 문제들의 해결책을 알아보고 이러한 기술들을 통해 복잡한 문제에 대한 딥러닝 모델을 효과적으로 훈련시.. 2023. 12. 1. 기계학습 10. Introduction to Artificial Neural Networks(ANN) 서론 이전까지는 기초적인 기계학습 알고리즘을 알아보았고 이제 딥러닝에 대해 간략히 알아보자. 인공 신경망(Artificial Neural Networks, ANN)은 생물학적 뉴런 네트워크에서 영감을 받은 기계 학습 모델로, 우리 뇌의 뉴런 구조를 모방하고자 한다. 그러나 시간이 흐름에 따라 ANN은 생물학적 모델과는 상당히 다른 방향으로 발전해왔다. ANN은 딥러닝의 핵심 구성 요소로 자리 잡았으며, 다양하고 강력하며 확장 가능한 특성으로 대규모이고 매우 복잡한 수행을 주로 한다. 이러한 작업에는 거대한 이미지 집합을 분류하는 작업, 음성 인식 서비스를 제공하는 작업, 매일 수백만 명의 사용자에게 가장 적합한 비디오를 추천하는 작업, AlphaGo 등이 있다. 생물학적 뉴런에서 인공 뉴런으로 역사 19.. 2023. 12. 1. 기계 학습 9. Unsupervised Learning Techniques 서론 머신 러닝 응용 프로그램은 대체로 지도 학습이다. 그러나 현실에서는 라벨이 없는 데이터가 대부분이다. 따라서 데이터를 효율적으로 활용하기 위해 비지도 학습 기술이 필요하다. 예를 들어 사진을 통한 결함 감지와 같은 작업은 데이터를 클러스터로 그룹화하여 유사한 인스턴스를 함께 묶는 군집화 방법(Clustering)을 활용할 수 있다. 이상치 탐지(Anomaly detection)는 정상 데이터의 특성을 학습하여 비정상 인스턴스를 감지하는 데 사용되며, 이를 통해 예기치 않은 문제나 결함을 사전에 파악할 수 있다. 또한 데이터 세트의 확률 밀도 함수를 추정함(Density estimation)으로써 데이터 분석 및 시각화를 수행할 수 있다. 이러한 비지도 학습 기술은 라벨이 없는 데이터에서 유용한 정보.. 2023. 11. 17. 기계 학습 8. 차원 축소(Dimensionality Reduction) 서론 많은 머신러닝 문제는 각 훈련 인스턴스마다 수천 또는 수백만 개의 특성을 포함한다. 이러한 모든 특성은 훈련을 극도로 느리게 만들뿐만 아니라 좋은 해결책을 찾기도 훨씬 어렵게 만들 수 있다. 이 문제는 차원의 저주(curse of dimensionality)로 불린다. 다행히 현실 세계의 문제에서는 특성의 수를 상당히 줄일 수 있으며, 이는 처리 불가능한 문제를 처리 가능한 문제로 바꿀 수 있다. 차원 축소는 훈련 속도를 높이는 데 도움이 되는 것 외에도 데이터 시각화(DataViz)에 극도로 유용하다. The Curse of Dimensionality 차원의 저주(The Curse of Dimensionality)란 고차원 공간에서 일어나는 다양한 현상들을 설명한다. 인간은 3차원까지 볼 수 있는.. 2023. 10. 28. 기계 학습 7. Ensemble Learning and Random Forests 서론 여러 개의 예측기(분류기 또는 회귀기와 같은)의 예측을 종합하면 종종 최상의 개별 예측기보다 더 나은 예측을 얻을 수 있다. 예측기들의 그룹은 앙상블이라고 하며, 이 기술은 앙상블 학습(Ensemble Learning)이라고 불리며, 앙상블 학습 알고리즘은 앙상블 방법(Ensemble method)이라고 한다. 예를 들어, 다른 훈련 세트의 무작위 하위 집합으로 나누어 각각 결정 트리 분류기를 훈련시킬 수 있다. 예측을 수행하기 위해 모든 개별 트리의 예측을 얻은 다음 가장 많은 투표를 받은 클래스를 예측한다. 이러한 결정 트리의 앙상블은 랜덤 포레스트(Random Forests)라고 불리며, 그 간단함에도 불구하고 현재 가장 강력한 머신 러닝 알고리즘 중 하나이다. Voting Classifier.. 2023. 10. 20. 기계 학습 6. 의사 결정 트리(Decision Trees) 서론 의사 결정 트리(Decision Tree)는 데이터를 특성에 따라 분할하여 관측치를 여러 개의 집단으로 나누는 지도 학습 알고리즘이다. 트리 구조에서 각 내부 노드는 특정 특성으로 나누는 분기점을 나타내며, 각 리프 노드는 해당 리프에 속하는 관측치가 특정한 클래스에 속할 확률을 나타낸다. 의사 결정 트리는 데이터를 분할하는 데 있어서 직관적이고 해석하기 쉽다는 장점이 있다. 또한 범주형 및 수치형 데이터를 모두 처리할 수 있는 다목적 알고리즘이기 때문에 널리 사용되는 머신 러닝 알고리즘 중 하나이다. 의사 결정 트리(Decision Tree) SVM과 마찬가지로 의사결정 트리는 분류 및 회귀 작업은 물론 다중 출력 작업까지 수행할 수 있는 다목적 기계 학습 알고리즘이다. 의사결정 트리는 현재 사용.. 2023. 10. 19. 이전 1 2 3 4 5 6 다음 반응형