사용자:호로조/2024년 과학의 달 에디터톤

위키백과, 우리 모두의 백과사전.

번역보다는 직접 자료 찾아서 쓰는 게 재밌네요. 영어 위키피디아 베끼는 것 같아서 그닥...

아래는 제가 과학의 달 에디터톤을 계긱로 인공 지능을 공부하여 알아 낸 것입니다. 잘못된 내용은 직접 수정하시거나 이 문서의 토론을 파셔서 알려주셔도 됩니다!

기계 학습[편집]

자료의 참고 흐름

기계 학습 [1] > 데이터 전처리 Pre-processing 데이터 전처리가 무엇인지 검색 > 이산 웨이블릿 변환 두 번째 논문에서 언급하여 검색해서 발견한 응용 논문 > 푸리에 변환 세 번째 논문에서 인용한 기초 논문

딥 러닝[편집]

자료의 참고 흐름

인공 신경망은 코넬항공연구소에서 미 해군의 지원을 받은 프랭크 로젠블렛퍼셉트론(1958년)을 고안하여 처음으로 등장합니다. 퍼셉트론은 입력과 출력간의 특징을 분석하는 분석자(Feature Analyser)가 있습니다. 다만 이는 엄밀한 의미의 은닉층이라고 할 수는 없습니다. 왜냐하면 이들의 관계는 수동으로 설정되는 것이고 그래서 이들의 상태는 완전히 입력의 벡터값(다만 저는 벡터가 뭔지 모릅니다)에 의해서만 결정된다는 것입니다. 즉 스스로 학습하는 게 아닙니다. 스스로 학습하는 게 아니라는 것은, 루멜하르트가 지적한 내용입니다. 따라서 퍼셉트론으로는 풀 수 없는 문제가 많았고 당시에는 복잡한 신경망을 어떻게 학습해야 할지 방법을 알지 못했습니다. 그래서 이후에 루멜하르트에 의해 순환 신경망(1986년)이 등장하였습니다.

다만 순환 신경망은 은닉층이 가진 과거의 정보가 프로세스가 진행될수록 마지막으로 전달되지 못하는 장기의존성 문제를 가지고 있습니다. 그러니까, 최근으로 오면 올수록 기존의 정보가 전달되지 않는다는 건데 '난 햄스터를 키워서 햄스터에 대해서 잘 안다'라는 문장이 있을 때 햄스터를 키운다는 사실이 앞단에 등장하고 그래서 잘 안다는 것은 뒷단에 등장합니다. 근데 햄스터를 키운다는 사실이 너무 앞단에 등장해서 그 사실이 잘 안다까지 전달되지 않는다는 것입니다.

그래서 한 과학자가 Long Short-Term Memory라는 구조를 만들었다네요.

Domain은 문제(Task)의 형식을 뜻합니다. 정형화된(Formed) 문제, 일상적(Mundane) 문제, 전문화된(Expert) 문제로 번역하겠습니다.

은닉층(Hidden unit)에 대해서 잘 몰라서 지금 막히고 있네요. 그리고 벡터에 대해서 따로 강의와 집에 있는 책으로 공부하고 있습니다. 아마 제 교육과정 때 벡터가 사라져서 벡터를 모르는 것 같습니다.

작업 중[편집]

이미 있는 문서의 보충
새로 작성할 문서