├── .github ├── pull_request_template.md └── workflows │ ├── cd │ └── main.yml ├── README.md └── glossary ├── .gitignore ├── _quarto.yml ├── contribution.qmd ├── dictionary ├── glossary.qmd └── terms │ ├── architecture.qmd │ ├── argumentation.qmd │ ├── arguments.qmd │ ├── attention_mask.qmd │ ├── automatic_speech_recognition.qmd │ ├── autoregressive_model.qmd │ ├── backward.qmd │ ├── batch.qmd │ ├── branch.qmd │ ├── capsule_netorwk.qmd │ ├── casual_language_model.qmd │ ├── causal_inference.qmd │ ├── checkpoint.qmd │ ├── chunk.qmd │ ├── clustering.qmd │ ├── code_snippet.qmd │ ├── configuration.qmd │ ├── convolution.qmd │ ├── convolution_1.qmd │ ├── crob.qmd │ ├── custom.qmd │ ├── custom_1.qmd │ ├── data_collator.qmd │ ├── dataset.qmd │ ├── denoise.qmd │ ├── depth_wise_convolution.qmd │ ├── dimensions_ordering.qmd │ ├── directory.qmd │ ├── directory_1.qmd │ ├── discriminator.qmd │ ├── distributed_training.qmd │ ├── down_stream.qmd │ ├── earth_mover_distance.qmd │ ├── entity.qmd │ ├── epoch.qmd │ ├── evaluation_method.qmd │ ├── feature_extraction.qmd │ ├── feature_matrix.qmd │ ├── fine_tunning.qmd │ ├── fine_tunning_1.qmd │ ├── generator.qmd │ ├── gradient.qmd │ ├── half_precision.qmd │ ├── hidden_state.qmd │ ├── hyperparameter.qmd │ ├── inference.qmd │ ├── inpainting.qmd │ ├── instance.qmd │ ├── iteration.qmd │ ├── jansen_shannon_divergence.qmd │ ├── l2_norm.qmd │ ├── label_smoothing_function.qmd │ ├── learning.qmd │ ├── lesson.qmd │ ├── license.qmd │ ├── load.qmd │ ├── logging.qmd │ ├── logit.qmd │ ├── loss_landscape.qmd │ ├── method.qmd │ ├── method_1.qmd │ ├── mixed_precision.qmd │ ├── multi-image_batches.qmd │ ├── optimizer.qmd │ ├── overfitting.qmd │ ├── pading.qmd │ ├── point_wise_convolution.qmd │ ├── pooling.qmd │ ├── pre_train.qmd │ ├── prior-preserving.qmd │ ├── prompt.qmd │ ├── push.qmd │ ├── repository.qmd │ ├── reproducibility.qmd │ ├── resume.qmd │ ├── section.qmd │ ├── seperator.qmd │ ├── sequence.qmd │ ├── shape.qmd │ ├── silent_error.qmd │ ├── spectrogram.qmd │ ├── speech_enhancement.qmd │ ├── step.qmd │ ├── strategy_profile.qmd │ ├── submodule.qmd │ ├── token.qmd │ ├── tokenizer.qmd │ ├── training.qmd │ ├── validation.qmd │ ├── vocoder.qmd │ ├── weight_decay.qmd │ └── xlm-roberta.qmd ├── guide.qmd ├── images ├── paste-1.png ├── paste-2.png ├── paste-3.png ├── paste-4.png ├── paste-6.png ├── pseudo-lab-1200x630.png ├── pseudo-lab-pavicon.png └── pseudo-lab.png ├── index.qmd ├── intro.html └── googleb64f32a1f0de3b5f.html └── references.bib /.github/pull_request_template.md: -------------------------------------------------------------------------------- 1 | # What does this PR do? 2 | 딥러닝에 사용되는 용어를 일관성있게 한국어로 번역하기 위한 용어사전을 만들기 위한 Pull Request 템플릿입니다. 3 | 인용한 자료가 있다면 경우 링크 연결이 필요합니다. 4 | 5 | 6 | ## Who can review? (Initial) 7 | 8 | ## Before submitting 9 | - [ ] 로컬 웹브라우져로 자신이 수정한 변경사항을 확인하셨나요? Did you check a preview of the website with a local web browser? 10 | - [ ] 용어를 가져온 문서정보 링크를 업데이트 하셨나요? Did you add a link to the article you got the term from? 11 | - [ ] 용어에 대한 설명을 작성 시 참고한 자료가 있다면 링크를 업데이트 해주세요. Please update the link if you have references to determine and describe the terminology. 12 | 13 | ## Who can review? (maintainer) 14 | 15 | 16 | 17 | 18 | 19 | -------------------------------------------------------------------------------- /.github/workflows/cd: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/Pseudo-Lab/deep-learning-glossary/8a96c517310535c79e6bdc1ef78fc136e8c349f8/.github/workflows/cd -------------------------------------------------------------------------------- /.github/workflows/main.yml: -------------------------------------------------------------------------------- 1 | on: 2 | push: 3 | branches: master 4 | 5 | name: Render and Publish 6 | 7 | jobs: 8 | build-deploy: 9 | runs-on: ubuntu-latest 10 | steps: 11 | - name: Check out repository 12 | uses: actions/checkout@v3 13 | 14 | - name: Set up Quarto 15 | uses: quarto-dev/quarto-actions/setup@v2 16 | with: 17 | # To install LaTeX to build PDF book 18 | tinytex: true 19 | # uncomment below and fill to pin a version 20 | # version: SPECIFIC-QUARTO-VERSION-HERE 21 | 22 | # add software dependencies here 23 | 24 | # To publish to Netlify, RStudio Connect, or GitHub Pages, uncomment 25 | # the appropriate block below 26 | 27 | # - name: Publish to Netlify (and render) 28 | # uses: quarto-dev/quarto-actions/publish@v2 29 | # with: 30 | # target: netlify 31 | # NETLIFY_AUTH_TOKEN: ${{ secrets.NETLIFY_AUTH_TOKEN }} 32 | 33 | # - name: Publish to RStudio Connect (and render) 34 | # uses: quarto-dev/quarto-actions/publish@v2 35 | # with: 36 | # target: connect 37 | # CONNECT_SERVER: enter-the-server-url-here 38 | # CONNECT_API_KEY: ${{ secrets.CONNECT_API_KEY }} 39 | 40 | - name: Publish to GitHub Pages (and render) 41 | uses: quarto-dev/quarto-actions/publish@v2 42 | with: 43 | target: gh-pages 44 | path: ./glossary 45 | env: 46 | GITHUB_TOKEN: ${{ secrets.GITHUB_TOKEN }} # this secret is always available for github actions 47 | 48 | -------------------------------------------------------------------------------- /README.md: -------------------------------------------------------------------------------- 1 | # Deep Learning 용어사전 2 | 딥러닝 문서 번역 시 용어 통일성을 위해 [딥러닝 용어사전](https://pseudo-lab.github.io/deep-learning-glossary/index.html)을 만들었습니다. 3 | 4 | 5 | 6 | ## 1. 변경사항 검토하기 7 | 문서 수정을 위해 레포지토리를 `fork`하여 문서를 수정합니다. 설치 및 빌드 순서는 아래와 같습니다. 8 | 9 | ### 1.1. Quarto 설치 10 | [Quarto 웹사이트](https://quarto.org/docs/get-started/)로 이동하여 Quarto를 설치합니다. 11 | 12 | ### 1.2. 문서 업데이트 13 | - 용어 수정을 위해 `glossary.qmd` 문서를 수정 후 수정된 내용을 아래의 명령으로 확인합니다. 로컬 웹브라우저에서 수정된 내용을 확인할 수 있습니다. 14 | ``` 15 | # cd glossary 16 | # quarto preview 17 | ``` 18 | 19 | ## 2. 변경사항 반영하기 20 | - Deep Learning 용어사전 레포지토리를 `Fork`한 후 `Pull Request`를 요청합니다. 21 | - 용어 사전의 각 프로젝트 Maintainer를 통해 Pull Request를 머지합니다. 22 | 23 | -------------------------------------------------------------------------------- /glossary/.gitignore: -------------------------------------------------------------------------------- 1 | /.quarto/ 2 | _book/ 3 | _site/ 4 | -------------------------------------------------------------------------------- /glossary/_quarto.yml: -------------------------------------------------------------------------------- 1 | project: 2 | type: website 3 | 4 | website: 5 | title: "딥러닝 용어사전" 6 | description: "딥러닝 영어문서를 한국어로 번역하는 과정에서 용어를 통일하여 사용하기 위한 오픈소스 용어 사전입니다." 7 | search: true 8 | navbar: 9 | left: 10 | - dictionary/glossary.qmd 11 | - guide.qmd 12 | - contribution.qmd 13 | right: 14 | - icon: github 15 | href: https://github.com/Pseudo-Lab/deep-learning-glossary 16 | favicon: images/pseudo-lab-pavicon.png 17 | open-graph: 18 | title: "딥러닝 용어사전" 19 | description: "딥러닝 영어문서를 한국어로 번역하는 과정에서 용어를 통일하여 사용하기 위한 오픈소스 용어 사전입니다." 20 | image: images/pseudo-lab-1200x630.png 21 | twitter-card: 22 | title: "딥러닝 용어사전" 23 | description: "딥러닝 영어문서를 한국어로 번역하는 과정에서 용어를 통일하여 사용하기 위한 오픈소스 용어 사전입니다." 24 | image: images/pseudo-lab-1200x630.png 25 | 26 | 27 | 28 | # sidebar: 29 | # style: "docked" 30 | # search: true 31 | # contents: 32 | # # - index.qmd 33 | # # - dictionary/glossary.qmd 34 | # - section: "사전 사용법" 35 | # contents: 36 | # - term_page_intro.qmd 37 | # - markdown.qmd 38 | # - pr.qmd 39 | # - contribution.qmd 40 | 41 | google-analytics: "G-TFCJQ03RNB" 42 | page-footer: 43 | center: "by HuggingFace KREW" 44 | repo-url: https://github.com/Pseudo-Lab/deep-learning-glossary 45 | site-url: 'https://pseudo-lab.github.io/deep-learning-glossary/' 46 | site-path: '/' 47 | 48 | format: 49 | html: 50 | toc: true 51 | theme: cosmo 52 | code-copy: true 53 | 54 | 55 | 56 | -------------------------------------------------------------------------------- /glossary/contribution.qmd: -------------------------------------------------------------------------------- 1 | # 기여하신 분 {.unnumbered} 2 | 3 | 용어 사전에 기여해주신 모든 분들께 감사드립니다. 새로운 기여자와 팀을 찾습니다. 함께 해주실꺼죠? 4 | 5 | 6 | 7 | ## Huggingface KREW 8 | 9 | [Huggingface KREW](https://pseudo-lab.github.io/huggingface_krew/)는 허깅페이스를 이해하기 다양한 활동을 하고 있으며 허깅페이스 문서를 일관성 있게 번역하기 위해서 용어 사전을 만들고 있습니다. 10 | 11 | | 이름 | 조직 | 소개| 12 | |:----- |:----------------------------------------|:--------------| 13 | | 서원형 | Pseudo Lab. Huggingface KREW | [Github](https://github.com/wonhyeongseo)/[Linkedin](https://www.linkedin.com/in/wonhseo/) | 14 | | 손기훈 | Pseudo Lab. Huggingface KREW | | 15 | | 심소현 | Pseudo Lab. Huggingface KREW | | 16 | | 양성모 | Pseudo Lab. Huggingface KREW | [Github](https://github.com/gabrielwithappy)/[Linkedin](https://www.linkedin.com/in/%EC%84%B1%EB%AA%A8-%EC%96%91-8a293838/) | 17 | | 윤현서 | Pseudo Lab. Huggingface KREW | | 18 | | 정우준 | Pseudo Lab. Huggingface KREW | [Github](https://github.com/jungnerd) | 19 | | 한나연 | Pseudo Lab. Huggingface KREW | | 20 | 21 |
22 | 23 | ## 허깅페이스 Diffuser 번역 프로젝트 24 | 25 | | 이름 | 조직 | 소개| 26 | |:----- |:----------------------------------------|:--------------| 27 | | 이홍규 | Pseudo Lab. Diffuser 프로젝트 | | 28 | | 박성수 | Pseudo Lab. Diffuser 프로젝트 | | 29 | | 이준형 | Pseudo Lab. Diffuser 프로젝트 | | 30 | | 윤형석 | Pseudo Lab. Diffuser 프로젝트 | | 31 | | 김지환 | Pseudo Lab. Diffuser 프로젝트 | | 32 | | 안혜민 | Pseudo Lab. Diffuser 프로젝트 | | 33 | 34 | 35 | ## 인과추론팀 36 | 가짜연구소 인과추론팀은 한국어 자료가 많지 않은 인과추론을 많은 분들이 쉽게 접하실 수 있도록 기여하고자 합니다! 37 | 38 | | 이름 | 조직 | 소개| 39 | |:----- |:----------------------------------------|:--------------| 40 | | 신진수 | Pseudo Lab. Causal Inference Team | [Github](https://github.com/CausalInferenceLab) / [Linkedin](https://www.linkedin.com/in/jinsoo-shin-436060162/) | 41 | -------------------------------------------------------------------------------- /glossary/dictionary/glossary.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: "용어 사전" 3 | # subtitle: "" 4 | listing: 5 | - id: terms 6 | contents: terms 7 | sort: 8 | - "title" 9 | categories: unnumbered 10 | sort-ui: [title] 11 | filter-ui: [title, category, description] 12 | type: default 13 | page-size: 10 14 | fields: [title, category, description, url] 15 | image-align: left 16 | --- 17 | 18 | 딥러닝관련 프로젝트를 번역하는 과정에서 용어를 일관성 있게 번역하기 위해서 사전을 만들고 있습니다. 딥러닝 문서 번역에 관심있는 분들 모두 참가가 가능하니 관심있는 분들의 많은 참여 부탁드립니다. 19 | 20 | 21 | 22 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/architecture.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'architecture' 3 | description: '아키텍처' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 12 | 아키텍처(architecture)는 다양한 분야에서 사용되는 용어로, 그 의미는 맥락에 따라 다를 수 있습니다. 주로 컴퓨터 과학 및 정보 기술 분야에서 아키텍처란 다음과 같은 의미로 사용됩니다. 13 | 14 | 소프트웨어 아키텍처(Software Architecture): 소프트웨어 시스템의 구조와 구성 요소 간의 관계를 설계하는 것을 다룹니다. 소프트웨어 아키텍처는 소프트웨어 시스템의 모듈화, 계층화, 컴포넌트 간의 상호 작용, 데이터 흐름 등을 고려하여 시스템의 확장성, 유지보수성, 재사용성을 향상시키기 위해 사용됩니다. 15 | 16 | ## 참조 17 | 1. Chatgpt3.5. (2023, 10월 8일). OpenAI. [아키텍처의 의미]. https://chat.openai.com/ 18 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/argumentation.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'argumentation' 3 | description: '증강' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | 9 | src: HuggingFace Transformer 10 | 11 | 딥러닝 영상처리 모델의 데이터 증강(augmentation)은 훈련 데이터를 다양하게 변형시켜 모델의 성능을 향상시키는 기법을 말합니다. 데이터 증강은 원본 훈련 데이터를 변형하여 새로운 데이터를 생성하고 이를 훈련에 활용하는 것입니다. 이로 인해 모델은 더 다양한 상황과 조건에서 일반화하고, 과적합을 줄이는데 도움이 됩니다. 12 | 13 | 딥러닝 모델은 많은 훈련 데이터를 필요로 하기 때문에, 특히 영상처리 분야에서는 많은 양의 라벨링된 데이터를 구하기 어려울 수 있습니다. 데이터 증강은 이러한 한계를 극복하고, 작은 데이터셋으로도 더 효과적인 훈련이 가능하도록 돕습니다. 14 | 15 | 영상처리 분야에서 흔히 사용되는 데이터 증강 방법들은 다음과 같습니다: 16 | 17 | - 이미지 뒤집기 (Flip): 이미지를 수평 또는 수직으로 뒤집어서 새로운 이미지를 생성합니다. 18 | 19 | - 회전 (Rotation): 이미지를 특정 각도로 회전시켜 다양한 각도에서의 객체 인식 능력을 향상시킵니다. 20 | 21 | - 크롭 (Crop): 이미지의 일부 영역을 잘라내거나 적절한 크기로 확대/축소하여 다양한 크기와 위치에서 객체를 인식할 수 있도록 돕습니다. 22 | 23 | - 밝기 조정 (Brightness): 이미지의 밝기를 변화시켜 다양한 조명 조건에서의 객체 인식 능력을 강화합니다. 24 | 25 | - 색상 변환 (Color Transformation): 이미지의 색상을 변환하거나 조정하여 다양한 환경에서의 색 변화에 대응할 수 있도록 합니다. 26 | 27 | - 노이즈 추가 (Noise Addition): 이미지에 노이즈를 추가하여 모델이 노이즈에 강건한 특성을 학습하게 합니다. 28 | 29 | - 확대/축소 (Scaling): 이미지를 확대하거나 축소하여 객체의 크기 변화에 대응할 수 있도록 합니다. 30 | 31 | 데이터 증강은 더 다양한 데이터를 확보하고, 모델의 일반화 능력을 향상시켜 영상처리 애플리케이션에서 더 좋은 성능을 달성하는데 도움이 됩니다. 32 | 33 | 34 | 35 | ## 참조 36 | 37 | 1. Chatgpt3.5. (2023, 8월 4일). OpenAI. [딥러닝 영상처리 모델, augumentation 의미]. https://chat.openai.com/ 38 | 2. APA 출처 생성기 (2023, 8월 4일). ESSAYREVIEW. https://essayreview.co.kr/citation-generator -------------------------------------------------------------------------------- /glossary/dictionary/terms/arguments.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'arguments' 3 | description: '인수' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 소프트웨어에서 인수는 프로그램 또는 스크립트를 실행할 때 커맨드 라인에서 전달하는 정보나 매개 변수를 나타냅니다. 이러한 인수는 프로그램이 실행되는 동안에 사용되거나 처리되며, 프로그램이 원하는 동작을 수행하도록 지시하는 데 사용됩니다. 12 | 13 | 인수는 프로그램이 특정 동작 또는 설정을 변경하도록 하는 옵션을 제공할 수 있습니다. 예를 들어, 명령줄에서 --verbose 플래그를 사용하여 프로그램이 자세한 로그를 출력하도록 지시할 수 있습니다. 14 | 15 | ## 참조 16 | 17 | 1. [소프트웨어 arguments의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/attention_mask.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'attention mask' 3 | description: '어텐션 마스크' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 어텐션 마스크는 주로 자연어 처리와 관련된 딥 러닝 모델에서 사용되는 개념입니다. 이것은 주로 트랜스포머(Transformer) 아키텍처와 관련이 있으며, 특히 어텐션 메커니즘(attention mechanism)을 사용하는 모델에서 주로 나타납니다. 12 | 13 | 어텐션 메커니즘은 입력 시퀀스의 각 요소에 가중치를 할당하여 중요한 부분을 강조하고, 모델이 해당 부분에 집중하도록 돕는 기술입니다. 이 때, 어텐션 가중치(attention weights)를 결정하는 데 사용되는 정보가 어텐션 마스크입니다. 14 | 15 | 16 | ## 참조 17 | 18 | 1. Chatgpt3.5. (2023, 10월 8일). OpenAI. [attention mask의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/automatic_speech_recognition.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'automatic speech recognition' 3 | description: '자동음성인식' 4 | categories: 5 | - Huggingface Audio 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace audio 9 | --- 10 | 설명을 추가해주세요. 11 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/autoregressive_model.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'autoregressive model' 3 | description: '자기회귀 모델' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 자연어 처리와 시계열 데이터 분석과 같은 다양한 분야에서 사용되는 자기회귀 모델은 시계열 데이터나 순차적 데이터를 모델링하기 위한 통계적 또는 머신 러닝 모델의 일종입니다. 이 모델은 현재 시점의 데이터를 이전 시점의 데이터와 관련하여 예측하거나 모델링하는 데 사용됩니다. 12 | 13 | 자기회귀 모델은 시계열 예측, 확률적 시계열 생성, 자연어 처리에서 언어 모델링 등 다양한 응용 분야에서 사용됩니다. 대표적으로 자기회귀 모델로 알려진 것 중 하나는 자연어 처리에서 사용되는 "언어 모델(Language Model)"입니다. 이 모델은 문장을 생성하거나 다음 단어를 예측하는 데 자주 사용됩니다. 14 | 15 | 예를 들어, 자연어 처리에서 GPT-3와 같은 모델은 자기회귀 모델의 한 유형으로, 이전 단어들을 사용하여 다음 단어를 예측하는 방식으로 텍스트를 생성합니다. 16 | 17 | ## 참조 18 | 19 | 1. Chatgpt3.5. (2023, 10월 8일). OpenAI. [autoregressive model의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/backward.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'backward' 3 | description: '역방향' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/batch.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'batch' 3 | description: '배치' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 배치는 데이터 처리 및 머신 러닝에서 중요한 개념 중 하나이며, 일괄 처리를 의미합니다. 주로 다음과 같은 두 가지 의미로 사용됩니다. 12 | 13 | ## 데이터 배치(Batch of Data): 14 | 15 | 데이터 배치란 데이터 집합(예: 이미지, 텍스트, 숫자 등)을 작은 덩어리로 나눈 것을 의미합니다. 16 | 각 덩어리를 배치라고 하며, 한 배치에는 여러 데이터 포인트가 포함됩니다. 17 | 18 | 예를 들어, 이미지 처리에서 한 배치는 여러 장의 이미지로 구성됩니다. 배치를 사용하는 이유는 모델 학습의 효율성을 높이고, GPU 또는 CPU와 같은 하드웨어 가속기를 효율적으로 활용하기 위함입니다. 19 | 20 | 배치 처리를 통해 여러 데이터 포인트를 동시에 처리하면 병렬 처리가 가능하며 학습 속도를 향상시킬 수 있습니다. 21 | 22 | ## 일괄 처리( Batch Processing): 23 | 24 | 일괄 처리는 컴퓨터 과학 및 데이터 처리 분야에서 사용되는 용어로, 데이터를 일정 크기의 묶음으로 처리하는 방식을 의미합니다. 25 | 26 | 대규모 데이터 처리 작업을 보다 효율적으로 수행하고, 데이터베이스에서 쿼리를 실행하거나 배치 작업을 수행하는 등의 다양한 컴퓨팅 작업에 사용됩니다. 27 | 28 | 예를 들어, 머신 러닝에서 데이터를 학습할 때, 훈련 데이터 세트를 작은 배치로 나누어 각 배치를 모델에 공급하여 학습합니다. 이렇게 하면 모델이 전체 데이터 세트를 한 번에 처리하지 않고, 배치 단위로 처리하므로 학습 과정이 효율적으로 이루어집니다. 29 | 30 | 데이터를 배치로 나누는 방식은 머신 러닝 모델 및 작업에 따라 다를 수 있으며, 배치 크기(batch size)는 모델의 성능과 학습 속도에 영향을 미칠 수 있습니다. 적절한 배치 크기를 선택하는 것은 모델 학습 및 성능 조정에서 중요한 요소 중 하나입니다. 31 | 32 | ## 참조 33 | 34 | 1. Chatgpt3.5. (2023, 10월 8일). OpenAI. [batch의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/branch.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'branch' 3 | description: '브랜치' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/capsule_netorwk.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'capsule network' 3 | description: '캡슐 네트워크' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai 7 | --- 8 | src: labml.ai 9 | --- 10 | 업로드 예정 11 | 12 | ## 참조 13 | 14 | 1. 15 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/casual_language_model.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'causal language model' 3 | description: '인과적 언어 모델링' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 인과적 언어 모델링은 언어 모델링과 자연어 처리 분야에서 사용되는 모델 중 하나로, 주로 시퀀스 데이터에서 다음 단어나 토큰을 예측하기 위해 사용됩니다. 이 모델은 인과 관계(causal relationship)를 고려하여 시퀀스 데이터를 생성하거나 분석하는 데 중요한 역할을 합니다. 12 | 13 | 1. 시계열 데이터 분석: 시계열 데이터에서는 과거 데이터가 미래 데이터에 영향을 미칠 수 있습니다. 인과적 언어 모델링은 이러한 인과 관계를 고려하여 시계열 데이터를 모델링하고 예측할 수 있습니다. 예를 들어, 주식 가격 예측이나 날씨 예보와 같은 작업에서 사용될 수 있습니다. 14 | 15 | 2. 추천 시스템 및 개인화: 추천 시스템에서 인과적 언어 모델링은 사용자의 선호도 및 이력을 이해하여 개인화된 추천을 제공합니다. 이를 통해 제품, 영화, 음악 등의 추천이 개선됩니다. 16 | 17 | 3. 데이터 분석 및 예측: 인과적 언어 모델링은 다양한 데이터 분석 작업에서 사용됩니다. 예를 들어, 마케팅 데이터, 고객 행동 데이터, 의료 데이터 등에서 패턴을 분석하고 예측 모델을 개발하는 데 활용됩니다. 18 | 19 | 이러한 이유로 인과적 언어 모델링은 다양한 응용 분야에서 데이터 분석, 예측, 생성, 이해, 추천 등의 작업을 효과적으로 수행하는 데 활용되며, 자연어 처리 분야에서 매우 중요한 역할을 합니다. 20 | 21 | 22 | ## 참조 23 | 24 | 25 | 1. Chatgpt3.5. (2023, 10월 8일). OpenAI. [causal language model의 의미, causal language model을 사용하는 이유]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/causal_inference.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'causal inference' 3 | description: '인과추론' 4 | categories: 5 | - Causal Inference 6 | url: 7 | --- 8 | src: Causal Inference 9 | --- 10 | 인과추론에 대한 설명 11 | 12 | ## 참조 13 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/checkpoint.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'checkpoint' 3 | description: '체크포인트' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 딥러닝에서 체크포인트란 모델의 중간 상태나 가중치(weight) 및 다른 학습 관련 정보를 저장하는 용어입니다. 12 | 13 | 이것은 모델 학습 중에 모델의 파라미터 및 학습 과정을 백업하고 모델을 재사용하거나 학습을 다시 시작할 때 사용됩니다. 14 | 15 | 모델 학습 중에 정기적으로 체크포인트를 저장하면 모델의 중간 상태를 나중에 복원하고 재사용할 수 있습니다. 이것은 학습 프로세스를 중단하고 나중에 중단된 곳에서 다시 시작할 때 유용합니다. 16 | 17 | 예를 들어, 모델 학습이 오랜 시간이 걸리는 경우, 학습이 중간에 실패하거나 중단된 경우, 체크포인트를 사용하여 마지막으로 저장된 상태에서 학습을 재개할 수 있습니다. 18 | 19 | 20 | ## 참조 21 | 22 | 1. Chatgpt3.5. (2023, 10월 8일). OpenAI. [딥러닝 checkpoint의 의미]. https://chat.openai.com/ 23 | 24 | 25 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/chunk.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'chunk' 3 | description: '묶음' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 딥러닝에서 `chunk`는 일반적으로 데이터를 처리하고 분석하기 위해 입력 데이터를 덩어리로 나누는 작업을 가리키는 용어입니다. 이것은 주로 데이터의 효율적인 처리와 모델의 훈련에 관련이 있습니다 12 | 13 | 예를 들어, 이미지 데이터를 처리할 때 이미지를 작은 패치로 나누어 각 패치에 대한 예측을 수행하고, 그 결과를 모아 최종 예측을 만들 수 있습니다. 이렇게 하면 메모리 효율성과 병렬 처리의 이점을 얻을 수 있습니다. 14 | 15 | ## 참조 16 | 17 | 1. [딥러닝 chunk의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/clustering.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'clustering' 3 | description: '군집화' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 딥러닝에서 군집화는 데이터를 비슷한 특성 또는 패턴을 가진 그룹으로 나누는 기술 또는 과정을 가리킵니다. 12 | 13 | 클러스터링은 비지도 학습(Unsupervised Learning)의 일부로, 데이터에 숨겨진 구조를 발견하고 이를 사용하여 데이터를 그룹화합니다. 14 | 15 | ## 참조 16 | 17 | 1. [딥러닝 clustering의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/code_snippet.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'code snippet' 3 | description: '예시 코드' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 예시 코드는 일반적으로 소프트웨어 개발에서 사용되는 용어로, 작은 부분의 코드 조각 또는 프로그래밍 코드의 짧은 일부분을 가리킵니다. 12 | 13 | 이러한 코드 조각은 주로 특정 작업을 수행하기 위해 사용되며, 보통 몇 줄에서 수십 줄 정도의 길이일 수 있습니다. 14 | 15 | ## 참조 16 | 17 | 1. [code snippet의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/configuration.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'configuration' 3 | description: '설정값' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai 7 | --- 8 | src: labml.ai 9 | --- 10 | labml.ai 에서 파이토치 논문 구현 실습을 위해 미리 구현해둔 설정값들을 담은 Configs 모듈을 클래스로 사용 할 수 있다. 11 | 12 | ## 참조 13 | 14 | 1.https://docs.labml.ai/api/configs.html 15 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/convolution.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'convolution' 3 | description: '합성곱' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 합성곱은 주로 이미지 처리 및 패턴 인식 작업에서 사용되며, 입력 데이터와 필터(또는 커널) 간의 연산을 나타냅니다. 합성곱은 필터를 입력 데이터 위를 슬라이딩하면서 계산됩니다. 이렇게 필터를 이동시키면 입력 데이터의 다양한 위치에서 특징을 추출할 수 있습니다. 12 | 13 | ## 참조 14 | 15 | 1. [합성곱의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/convolution_1.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'convolution' 3 | description: '컨볼루션' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 컨볼루션은 주로 이미지 처리 및 패턴 인식 작업에서 사용되며, 입력 데이터와 필터(또는 커널) 간의 연산을 나타냅니다. 12 | 13 | 컨볼루션은 필터를 입력 데이터 위를 슬라이딩하면서 계산됩니다. 이렇게 필터를 이동시키면 입력 데이터의 다양한 위치에서 특징을 추출할 수 있습니다. 14 | 15 | ## 참조 16 | 17 | 1. [합성곱의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/crob.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'crob' 3 | description: '자르기' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/custom.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'custom' 3 | description: '사용자정의' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/custom_1.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'custom' 3 | description: '커스텀' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/data_collator.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'data collator' 3 | description: '데이터 콜레이터' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | `데이터 콜레이터`는 딥러닝에서 데이터를 준비하고 처리하는 역할을 하는 소프트웨어 또는 코드의 일부분을 가리키는 용어입니다. 11 | 12 | 데이터 콜레이터는 특히 자연어 처리(NLP) 분야에서 많이 사용되며, 모델의 훈련 데이터를 처리하고 [[배치](./batch.qmd)]를 생성하는 작업을 수행합니다. 13 | 14 | ## 참조 15 | 16 | 1. [data collator 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/dataset.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'dataset' 3 | description: '데이터 세트' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 데이터 세트는 딥러닝 모델을 훈련하고 평가하기 위해 사용되는 데이터의 집합을 가리킵니다. 12 | 13 | 딥러닝 모델은 데이터셋을 사용하여 가중치를 조정하며 학습합니다. 모델은 입력 데이터와 해당 데이터에 대한 정답(레이블)사이의 관계를 학습하여 예측을 수행할 수 있도록 됩니다. 14 | 15 | 딥러닝 데이터세트는 다양한 도메인에서 사용되며, 이미지 분류, 자연어 처리, 음성 인식, 추천 시스템, 자율 주행 자동차, 의료 이미지 분석 등이 있습니다. 16 | 17 | ## 참조 18 | 19 | 1. [딥러닝 dataset의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/denoise.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'denoise' 3 | description: '디노이즈' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. 11 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/depth_wise_convolution.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'depth-wise convolution' 3 | description: 'depth-wise 컨볼루션' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai 7 | --- 8 | src: labml.ai 9 | --- 10 | 공간 정보 믹싱 11 | 12 | ## 참조 13 | 14 | 1. 15 | 2. https://nn.labml.ai/conv_mixer/index.html -------------------------------------------------------------------------------- /glossary/dictionary/terms/dimensions_ordering.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'dimensions ordering' 3 | description: '차원순서(dimensions ordering)' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/directory.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'directory' 3 | description: '디렉터리' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/directory_1.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'directory' 3 | description: '디렉토리' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/discriminator.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'discriminator' 3 | description: '판별자' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai 7 | --- 8 | src: labml.ai 9 | --- 10 | 업로드 예정 11 | 12 | ## 참조 13 | 14 | 1. 15 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/distributed_training.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'distributed training' 3 | description: '분산 학습' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/down_stream.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'down stream' 3 | description: '다운 스트림' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/earth_mover_distance.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'earth mover distance' 3 | description: 'earth mover 거리' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai 7 | --- 8 | src: labml.ai 9 | --- 10 | Earth mover는 흙을 파는 기계이다. 11 | 12 | ## 참조 13 | 14 | 1. https://en.wikipedia.org/wiki/Earth_mover%27s_distance 15 | 2. https://nn.labml.ai/gan/wasserstein/index.html 16 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/entity.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'entity' 3 | description: '개체' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 소프트웨어 엔티티는 소프트웨어 시스템 또는 소프트웨어 구성 요소 내에서 독립적으로 식별 가능하며, 개별적인 역할 또는 기능을 수행하는 추상적인 개체를 나타냅니다. 12 | 13 | 이 용어는 소프트웨어 엔지니어링 및 소프트웨어 설계 분야에서 주로 사용되며, 소프트웨어를 구조화하고 이해하는 데 도움이 됩니다. 대표적인 소프트웨어 엔티티는 `클래스(Class)`, `객체(Object)`, `모듈(Module)` 등이 있습니다. 14 | 15 | 소프트웨어 엔티티는 소프트웨어 시스템을 설계, 개발 및 관리하는 데 중요한 역할을 합니다. 이러한 엔티티는 소프트웨어의 모듈화, 재사용성, 유지 보수 등과 관련된 다양한 소프트웨어 엔지니어링 원칙을 따르는 데 도움이 됩니다. 16 | 17 | ## 참조 18 | 19 | 1. [소프트웨어 entity의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/epoch.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'epoch' 3 | description: '에폭' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 딥러닝에서 에폭은 모델의 훈련량을 나타내는 단위로, 1 에폭은 학습 데이터 전체를 한 번 순회하는 것을 의미합니다. 11 | 12 | 모델 훈련 시 학습 데이터는 배치라고 부르는 데이터 묶음으로 나뉘어 모델에 전달됩니다. 따라서 배치 크기에 따라서 1 에폭에 모델이 훈련되는 횟수가 달라집니다. 13 | 14 | 예를 들어 학습 데이터의 총 샘플 수가 100이고 배치 크기가 10이라면 1 에폭당 10회의 훈련이 진행됩니다. 15 | 16 | ## 참조 17 | 18 | 1. https://machinelearningmastery.com/difference-between-a-batch-and-an-epoch -------------------------------------------------------------------------------- /glossary/dictionary/terms/evaluation_method.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'evaluation method' 3 | description: '평가 방법' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 딥러닝에서 평가 방법은 모델의 성능을 측정하는 데 사용됩니다. 이것은 모델이 주어진 작업을 얼마나 잘 수행하는지를 나타냅니다. 이를 통해 모델의 예측 정확도, 정밀도, 재현율, F1 점수 등과 같은 성능 지표를 계산할 수 있습니다. 12 | 13 | ## 참조 14 | 15 | 1. [evaluation method의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/feature_extraction.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'feature extraction' 3 | description: '특성 추출' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 딥러닝에서 `특성 추출`은 데이터로부터 유용한 정보를 추출하고 이를 기계 학습 모델이나 딥러닝 모델에 입력으로 제공하기 위한 과정을 가리킵니다. 12 | 13 | 이 과정은 주로 원시 데이터로부터 고수준 특징이나 표현을 추출하여 데이터를 더 쉽게 처리하고 모델의 성능을 향상시키는 데 사용됩니다 14 | 15 | ## 참조 16 | 17 | 1. [feature extraction의 의미]. https://chat.openai.com/ 18 | 19 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/feature_matrix.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'feature matrix' 3 | description: '특성 행렬' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 딥러닝에서 `특성 행렬`은 모델의 입력 데이터를 나타내는 행렬입니다. 이 행렬은 각 행이 데이터 샘플을 나타내고 각 열이 특징(또는 특성)을 나타냅니다. 12 | 13 | 각 데이터 샘플은 이러한 특징의 값을 포함하며, 딥러닝 모델은 이러한 값들을 기반으로 예측, 분류 또는 다른 작업을 수행합니다. 14 | 15 | ## 참조 16 | 17 | 1. [feature matrix의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/fine_tunning.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'fine tunning' 3 | description: '미세 조정' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 딥러닝에서 `미세 조정`은 미리 훈련된(pre-trained) 모델을 가져와서 추가적인 훈련을 수행하는 과정을 가리킵니다. 12 | 13 | 이것은 주로 전이 학습(transfer learning)의 한 형태로 사용되며, 이미 훈련된 모델의 일부 레이어나 파라미터를 조정하여 새로운 작업에 맞게 모델을 개선하는데 사용됩니다. 14 | 15 | ## 참조 16 | 17 | 1. [fine tunning의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/fine_tunning_1.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'fine tunning' 3 | description: '파인튜닝' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 딥러닝에서 `파인튜닝`은 미리 훈련된(pre-trained) 모델을 가져와서 추가적인 훈련을 수행하는 과정을 가리킵니다. 12 | 13 | 이것은 주로 전이 학습(transfer learning)의 한 형태로 사용되며, 이미 훈련된 모델의 일부 레이어나 파라미터를 조정하여 새로운 작업에 맞게 모델을 개선하는데 사용됩니다. 14 | 15 | ## 참조 16 | 17 | 1. [fine tunning의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/generator.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'generator' 3 | description: '생성자' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai 7 | --- 8 | src: labml.ai 9 | --- 10 | 업로드 예정 11 | 12 | ## 참조 13 | 14 | 1. 15 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/gradient.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'gradient' 3 | description: '그래디언트' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/half_precision.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'half precision' 3 | description: '반정밀도(half precision)' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/hidden_state.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'hidden state' 3 | description: '은닉 상태' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 인공 신경망에서 `은닉 상태`는 모델의 내부 상태를 나타내는 개념입니다. 이것은 네트워크의 중간 레이어 또는 히든 레이어에서 발생하는 활성화 값의 집합을 가리킵니다. 12 | 13 | 은닉 상태는 딥러닝 모델에서 중요한 역할을 하며, 모델의 학습 및 예측 과정에서 정보를 전달하고 변환하는 데 사용됩니다. 구조와 특성은 모델의 종류와 목적에 따라 달라질 수 있으며, 모델을 이해하고 해석하는 데 중요한 개념 중 하나입니다. 14 | 15 | ## 참조 16 | 17 | 1. [hidden state의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/hyperparameter.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'hyperparameter' 3 | description: '하이퍼파라미터' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 딥러닝에서 `하이퍼파라미터`는 모델의 학습 과정 및 구조를 제어하고 조정하는 매개 변수를 가리킵니다. `학습률(learning rate)`, `드롭아웃(dropout)`, `에폭수(epoch)`는 모델 학습을 효율적으로 진행하기 위한 하이퍼파라미터로 자주 사용됩니다. 하이퍼파라미터의 설정은 모델의 성능과 학습 속도에 큰 영향을 미칩니다. 12 | 13 | ## 참조 14 | 15 | 1. [hyperparameter의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/inference.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'inference' 3 | description: '추론' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 딥러닝에서 `추론`은 모델이 훈련된 후에 새로운 입력 데이터에 대한 예측, 분류, 또는 출력을 생성하는 과정을 가리킵니다. 이 과정은 모델이 학습한 지식을 활용하여 새로운 데이터에 대한 결정을 내리는 것을 의미하며, 주로 모델의 실제 운영 및 사용 단계에서 발생합니다. 12 | 13 | ## 참조 14 | 15 | 1. [딥러닝 inference의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/inpainting.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'inpainting' 3 | description: '인페인팅' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. 11 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/instance.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'instance' 3 | description: '인스턴스' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. 11 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/iteration.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'iteration' 3 | description: '반복' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai 7 | --- 8 | src: labml.ai 9 | --- 10 | 1 epoch(에폭)을 마치는 데 필요한 미니 배치의 수입니다. 하나의 epoch에 대해서 몇번 반복해서 학습할 지 나타내는 횟수입니다. 11 | 12 | 예를 들어 1500개의 데이터에 대해서 배치 사이즈 100으로 15개의 미니 배치로 나누었을 때 1 에폭을 완료 하기 위해서는 15-iteration 반복이 필요하며 15번의 파라미터 업데이트가 진행 됩니다 13 | 14 | ## 참조 15 | 16 | 1. https://losskatsu.github.io/machine-learning/epoch-batch/#3-epoch%EC%9D%98-%EC%9D%98%EB%AF%B8 17 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/jansen_shannon_divergence.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'Jansen-Shannon divergence' 3 | description: '잰슨-섀넌 다이버전스' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai/gan/wasserstein/index.html 7 | --- 8 | src: labml.ai 9 | --- 10 | 확률 이론 및 통계학에서 젠슨-셰넌 다이버전스는 두 확률 분포 사이의 유사성을 측정하는 방법입니다. 11 | 12 | 평균에 대한 정보 반경(Information Radius) 또는 평균에 대한 총 다이버전스로도 알려져 있습니다. 13 | 14 | 대칭이고 항상 유한한 값을 갖는 것을 포함하여 몇 가지 주목할 만한 (그리고 유용한) 차이가 있는 Kullabck-Leibler 다이버전스를 기반으로 합니다. 15 | 16 | 잰슨-섀넌 발산의 제곱근은 종종 잰슨-섀넌 거리라고 불리는 메트릭입니다. 17 | 18 | ## 참조 19 | 20 | 1. https://en.wikipedia.org/wiki/Jensen%E2%80%93Shannon_divergence 21 | 2. https://nn.labml.ai/gan/wasserstein/index.html -------------------------------------------------------------------------------- /glossary/dictionary/terms/l2_norm.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'L2 norm' 3 | description: 'L2 노름' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai 7 | --- 8 | src: labml.ai 9 | --- 10 | 업로드 예정 11 | 12 | ## 참조 13 | 14 | 1. 15 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/label_smoothing_function.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'label smoothing function' 3 | description: '라벨 스무딩 함수' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai 7 | --- 8 | src: labml.ai 9 | --- 10 | 업로드 예정 11 | 12 | ## 참조 13 | 14 | 1. 15 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/learning.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'learning' 3 | description: '학습' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/lesson.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'lesson' 3 | description: '단원' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/license.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'license' 3 | description: '라이선스' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/load.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'load' 3 | description: '가져오다' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/logging.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'logging' 3 | description: '로깅' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai 7 | --- 8 | src: labml.ai 9 | --- 10 | 업로드 예정 11 | 12 | ## 참조 13 | 14 | 1. 15 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/logit.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'logit' 3 | description: '로짓' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai 7 | --- 8 | src: labml.ai 9 | --- 10 | Logit(로짓) 함수는 0에서 1까지의 확률값과 -∞에서 ∞ 사이의 확률값을 표현해주는 함수입니다. 표준 로지스틱 분포 즉 Y축에서 0과 1 사이를 제한하는 시그모이드의 역함수라 로짓 함수는 X축에서 0과 1 사이의 자연로그 함수로 표현됩니다. 이러한 특성 때문에 log-odds 함수이며 확률 p가 0과 1사이에 있기에 로짓함수는 확률을 이해하는 데 가장 일반적으로 사용됩니다. 11 | 12 | ## 참조 13 | 14 | 1. https://deepai.org/machine-learning-glossary-and-terms/logit#:~:text=A%20Logit%20function%2C%20also%20known%20as%20the%20log-,1%20across%20the%20Y-axis%2C%20rather%20than%20the%20X-axis. 15 | 2. https://en.wikipedia.org/wiki/Logit 16 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/loss_landscape.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'loss landscape' 3 | description: '손실 공간' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai 7 | --- 8 | src: labml.ai 9 | --- 10 | 업로드 예정 11 | 12 | ## 참조 13 | 14 | 1. 15 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/method.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'method' 3 | description: '매소드' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/method_1.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'model' 3 | description: '모델' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/mixed_precision.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'mixed precision' 3 | description: '혼합 정밀도(mixed precision)' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 혼합 정밀도는 딥러닝 모델의 연산을 고정 정밀도와 부동 소수점 정밀도를 혼합하여 처리하는 기술을 가리킵니다. 이 기술은 딥러닝 모델의 효율성을 높이고 계산 리소스를 절약하기 위해 사용됩니다. 12 | 13 | ## 참조 14 | 15 | 1. [mixed precision의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/multi-image_batches.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'multi-image batches' 3 | description: '다중 이미지 배치(multi-image batches)' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/optimizer.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'optimizer' 3 | description: '옵티마이저' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/overfitting.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'over fitting' 3 | description: '과적합' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai 7 | --- 8 | src: labml.ai 9 | --- 10 | 업로드 예정 11 | 12 | ## 참조 13 | 14 | 1. 15 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/pading.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'pading' 3 | description: '패딩' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 딥러닝에서 `패딩`은 주로 이미지 또는 시퀀스 데이터와 관련된 작업에서 사용되는 용어입니다. `패딩`은 데이터의 크기나 모양을 조절하고 특정 형식 또는 요구사항을 충족시키기 위해 추가된 빈 공간 또는 값입니다. 12 | 13 | ## 참조 14 | 15 | 1. [딥러닝 padding의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/point_wise_convolution.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'point-wise convolution' 3 | description: 'point-wise 컨볼루션' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai 7 | --- 8 | src: labml.ai 9 | --- 10 | 채널 정보 믹싱 11 | 12 | ## 참조 13 | 14 | 1. 15 | 2. https://nn.labml.ai/conv_mixer/index.html -------------------------------------------------------------------------------- /glossary/dictionary/terms/pooling.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'pooling' 3 | description: '풀링' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai 7 | --- 8 | src: labml.ai 9 | --- 10 | 업로드 예정 11 | 12 | ## 참조 13 | 14 | 1. 15 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/pre_train.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'pre-train' 3 | description: '사전학습' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 사전 학습은 딥러닝 모델을 처음부터 학습시키는 것이 아니라, 미리 학습된 모델의 가중치(weights)와 특성을 활용하여 초기 가중치를 설정하는 기술입니다. 12 | 13 | 미리 학습된 모델은 대규모 데이터로 학습되었으며, 일반적인 특징과 패턴을 잘 파악하고 있습니다. 따라서 새로운 작업을 위해 이러한 모델을 사용하면 초기 가중치가 우수하며, 빠른 수렴과 높은 성능을 제공할 수 있습니다. 14 | 15 | ## 참조 16 | 17 | 1. [딥러닝 pre train의 의미]. https://chat.openai.com/ 18 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/prior-preserving.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'prior-preserving' 3 | description: '사전 보존(prior-preserving)' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 사전 보전은 딥러닝 또는 확률 모델에서 사용되는 개념 중 하나입니다. 이 용어는 모델의 훈련 과정 중에 발생하는 변화나 업데이트가 모델의 사전 지식(prior knowledge)을 보존하는 것을 나타냅니다. 12 | 13 | 모델을 훈련할 때, 모델은 입력 데이터와 목표 출력 데이터 간의 관계를 학습합니다. 그러나 때로는 모델에 사전 지식을 주입하려고 합니다. 사전 지식은 모델이 이미 알고 있는 정보나 특정 제약 조건을 나타낼 수 있습니다. `사전 보존`은 모델의 훈련 과정에서 이러한 사전 지식을 보존하려는 의도를 나타냅니다. 14 | 15 | # 참조 16 | 17 | 1. [prior-preserving의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/prompt.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'prompt' 3 | description: '프롬프트' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 딥러닝에서 `prompt`는 모델에게 어떤 작업을 수행하거나 정보를 요청하기 위한 입력 또는 지시사항을 가리킵니다. 이것은 모델이 어떤 작업을 수행해야 하는 것을 지정하는 텍스트 또는 문장으로 제공됩니다. 12 | 13 | ## 참조 14 | 15 | 1. [딥러닝 prompt의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/push.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'push' 3 | description: '푸시' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/repository.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'repository' 3 | description: '리포지토리' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/reproducibility.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'reproducibility' 3 | description: '재현성' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/resume.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'resume' 3 | description: '재개' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/section.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'section' 3 | description: '섹션' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/seperator.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'seperator' 3 | description: '분할 토큰' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | 10 | --- 11 | 딥러닝에서 `분할 토큰`은 주로 언어 모델(예: GPT, BERT)을 사용하는 자연어 처리(NLP) 작업에서 텍스트를 토큰(token)으로 분할하고, 분할된 토큰 중 하나가 텍스트의 끝이나 다른 문맥적 경계를 나타내는 데 사용되는 특수한 토큰을 가리킵니다. 12 | 13 | 일반적으로 언어 모델은 입력 텍스트를 토큰 단위로 분할하고, 각 토큰에 대한 임베딩 벡터를 생성하여 텍스트를 처리합니다. 이때 텍스트의 문맥을 이해하기 위해 각 문장이나 문단의 끝을 나타내는 특별한 토큰이 필요할 수 있습니다. 이 특별한 토큰은 문장 또는 문단 간의 경계를 표시하고 모델에게 언어의 문맥을 알리는 데 사용됩니다. 14 | 15 | 예를 들어, 문장 "나는 고양이를 좋아해."와 "고양이는 너무 귀여워."가 있다고 가정해 봅시다. 이 두 문장을 토큰화하면 다음과 같을 수 있습니다: 16 | 17 | 문장 1: ["나", "는", "고양이", "를", "좋아해", "."] 18 | 문장 2: ["고양이", "는", "너무", "귀여워", "."] 19 | 여기서 마침표(".")는 각 문장의 끝을 나타내는 특수한 토큰으로 분할 토큰입니다. 이를 통해 모델은 두 문장이 서로 다른 문장임을 이해하고, 문장 간의 관계를 파악할 수 있습니다. 20 | 21 | 또한, 분할 토큰은 대화형 언어 처리 작업에서 각 대화 발화를 구분하는 데도 사용될 수 있습니다. 대화 형식에서는 대개 대화 참가자의 발화 간에 경계를 나타내기 위해 분할 토큰을 사용합니다. 22 | 23 | ## 참조 24 | 1. [딥러닝 분할토큰의 의미]. https://chat.openai.com/ -------------------------------------------------------------------------------- /glossary/dictionary/terms/sequence.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'sequence' 3 | description: '시퀀스' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/shape.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'shape' 3 | description: '크기' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai 7 | --- 8 | src: labml.ai 9 | --- 10 | 신경망 네트워크 행렬의 크기 11 | 12 | 13 | ## 참조 14 | 15 | 1. 16 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/silent_error.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'silent error' 3 | description: '조용한 오류' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 조용한 오류(silent error)는 프로그램 또는 코드 실행 중에 발생하는 오류 중에서 명시적인 오류 메시지나 경고 없이 발생하며, 프로그램이 비정상적으로 동작하거나 예상치 못한 결과를 내는 오류를 가리킵니다. 이러한 오류는 디버깅하기 어려우며, 프로그램의 안정성과 신뢰성에 영향을 미칠 수 있습니다. 12 | 13 | 조용한 오류가 발생하는 경우, 프로그램은 오류가 있음에도 불구하고 실행을 계속하며, 이로 인해 예기치 않은 결과를 생성할 수 있습니다. 14 | 15 | ## 참조 16 | 1. [silent error의 의미]. https://chat.openai.com/ 17 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/spectrogram.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'spectrogram' 3 | description: '스펙토그램' 4 | categories: 5 | - Huggingface Audio 6 | url: https://huggingface.co/learn/audio-course/chapter0/introduction 7 | --- 8 | src: HuggingFace audio 9 | --- 10 | 11 | 스펙트로그램(Spectrogram)은 시간과 주파수를 2차원 그래픽 형태로 나타내는 시각화 도구입니다. 스펙트로그램은 주로 오디오 신호, 음악, 음성 등의 시계열 데이터를 분석하고 표현하는 데 사용됩니다. 12 | 13 | 스펙트로그램은 시간에 따른 주파수 변화를 시각적으로 보여줍니다. 가로 축은 시간을, 세로 축은 주파수를 나타내며, 플롯의 색상 농도는 해당 시간과 주파수에서의 신호 강도를 나타냅니다. 14 | 15 | ## 참조 16 | 1. [spectogram의 의미]. https://chat.openai.com/ 17 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/speech_enhancement.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'speech enhancement' 3 | description: '음성 향상' 4 | categories: 5 | - Huggingface Audio 6 | url: https://huggingface.co/learn/audio-course/ 7 | --- 8 | src: HuggingFace Audio 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/step.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'step' 3 | description: '스텝' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 딥러닝에서 "step(스텝)"은 주로 훈련 알고리즘을 실행하거나 모델 파라미터를 업데이트하는 한 단위 작업을 나타냅니다. 데이터의 여러 [배치(batch)](./batch.qmd)를 사용하여 학습을 진행하며, 전체 학습 데이터를 여러 번(epoch) 사용하는 것이 일반적입니다. 반복 횟수는 학습의 효과와 모델의 수렴에 영향을 미칩니다. -------------------------------------------------------------------------------- /glossary/dictionary/terms/strategy_profile.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'strategy profile' 3 | description: '전략 프로필' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai 7 | --- 8 | src: labml.ai 9 | --- 10 | 게임 이론에서 사용되는 용어 11 | 12 | 게임에 참여하는 모든 플레이어에 대해서 그들이 각 상태에서 어떤 행동을 선택하는지에 대한 전략의 집합 13 | 14 | ## 참조 15 | 16 | 1. https://ko.d2l.ai/chapter_deep-learning-basics/weight-decay.html 17 | 2. https://nn.labml.ai/cfr/index.html전 -------------------------------------------------------------------------------- /glossary/dictionary/terms/submodule.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'submodule' 3 | description: '서브모듈' 4 | categories: 5 | - Huggingface Diffuser 6 | url: https://huggingface.co/docs/diffusers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 설명을 추가해주세요. -------------------------------------------------------------------------------- /glossary/dictionary/terms/token.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'token' 3 | description: '토큰' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 11 | 딥러닝에서 "token(토큰)"은 텍스트 데이터를 작은 단위로 분할하는 과정에서 나오는 기본적인 단위를 나타냅니다. 이 단위는 일반적으로 단어, 부분 단어, 문자 또는 하위 단어 단위일 수 있습니다. 토큰화(tokenization)는 텍스트 데이터를 이러한 토큰으로 분해하는 과정을 말합니다. 12 | 13 | ## 참조 14 | 1. [딥러닝 token의 의미]. https://chat.openai.com/ 15 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/tokenizer.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'tokenizer' 3 | description: '토크나이저' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | 8 | --- 9 | src: HuggingFace Transformer 10 | --- 11 | 토크나이저는 자연어 처리(Natural Language Processing, NLP) 분야에서 텍스트를 작은 단위로 나누는 도구 또는 프로세스를 가리킵니다. 이 작은 단위는 토큰(Token)이라고 불리며, 일반적으로 단어, 문장 부호, 혹은 하나의 글자와 같은 작은 텍스트 조각을 말합니다. 12 | 13 | 토크나이저의 주요 목적은 텍스트를 기계 학습 알고리즘, 딥러닝 모델 또는 다른 자연어 처리 작업에 입력으로 사용할 수 있는 형식으로 변환하는 것입니다. 이렇게 텍스트를 토큰으로 분할하면 기계는 더 쉽게 텍스트를 이해하고 처리할 수 있습니다. 14 | 15 | ## 참조 16 | 1. [tokenizer]. https://chat.openai.com/ 17 | 18 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/training.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'training' 3 | description: '훈련' 4 | categories: 5 | - Huggingface Transformer 6 | url: https://huggingface.co/docs/transformers/index 7 | --- 8 | src: HuggingFace Transformer 9 | --- 10 | 딥러닝에서 훈련(training)은 모델을 데이터에 훈련시키는 과정을 의미합니다. 이 과정은 모델이 데이터에서 패턴을 이해하고 문제를 해결하기 위한 모델을 조정하는 것을 포함합니다. 11 | 12 | 훈련은 입력 데이터를 모델에 주입하고, 모델은 예측을 수행한 후 손실 함수를 사용하여 오차를 계산하고 역전파(backpropagation)를 통해 파라미터를 업데이트합니다. 이 과정은 여러 [에폭(epochs)](./epoch.qmd) 동안 반복됩니다. 13 | 14 | ## 참조 15 | 16 | 1. [딥러닝 training의 의미]. https://chat.openai.com/ 17 | 18 | 19 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/validation.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'validation' 3 | description: '검증' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai 7 | --- 8 | src: labml.ai 9 | --- 10 | 업로드 예정 11 | 12 | 13 | ## 참조 14 | 15 | 1. 16 | -------------------------------------------------------------------------------- /glossary/dictionary/terms/vocoder.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'vocoder' 3 | category: huggingface_audio 4 | categories: 5 | - Huggingface Audio 6 | description: '보코더' 7 | url: https://huggingface.co/learn/audio-course/chapter0/introduction 8 | --- 9 | src: HuggingFace audio 10 | --- 11 | 오디오를 생성하는 모델은 로그 멜 스펙트로그램을 출력으로 생성하는 것이 일반적입니다. 따라서 사람이 인지할 수 있는 파형으로 변경하는 신경망인 보코더를 최종 출력단으로 사용합니다. 하지만 `Bark`와 같은 오디오 딥러닝 모델은 `원시 음성 파형`을 직접 생성하는 모델들은 별도의 보코더가 필요하지 않습니다. 12 | 13 | ## 참조 14 | 15 | 1. https://huggingface.co/learn/audio-course/en/chapter6/pre-trained_models -------------------------------------------------------------------------------- /glossary/dictionary/terms/weight_decay.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'weight decay' 3 | description: '가중치 감쇠' 4 | categories: 5 | - labml.ai Annotated Pytorch Paper Implementations 6 | url: https://nn.labml.ai 7 | --- 8 | src: labml.ai 9 | --- 10 | 과적합 문제를 해결하기 위한 방법 중 하나로서 학습된 모델의 복잡도를 줄이기 위해서 학습 중 가중치가 너무 큰 값을 가지지 않도록 손실 함수(loss function)에 가중치가 커지는 것에 대한 패널티를 부여합니다 11 | 12 | 옵티마이저(optimizer)가 모든 파라미터를 다루기 때문에 옵티마이져에서 정규화 상수 하이퍼파라미터 지정으로 가중치를 감쇠시켜 구현합니다. 13 | 14 | ## 참조 15 | 16 | 1. https://ko.d2l.ai/chapter_deep-learning-basics/weight-decay.html 17 | 2. https://nn.labml.ai/optimizers/index.html 18 | 3. https://light-tree.tistory.com/216 -------------------------------------------------------------------------------- /glossary/dictionary/terms/xlm-roberta.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: 'XLM-RoBERTa' 3 | description: 'XLM-RoBERTa' 4 | categories: 5 | - Huggingface Models 6 | url: https://huggingface.co/docs/transformers/model_doc/xlm-roberta 7 | --- 8 | 9 | ## src: HuggingFace Transformer 10 | 11 | XLM-RoBERTa 모델은 Unsupervised Cross-lingual Representation Learning at Scale에서 제안 되었습니다 . 2019년에 출시된 Facebook의 RoBERTa 모델을 기반으로 합니다. 2.5TB의 필터링된 CommonCrawl 데이터에서 훈련된 대규모 다국어 언어 모델입니다. 12 | 13 | RoBERTa 모델은 RoBERTa: A Robustly Optimized BERT Pretraining Approach에서 제안되었습니다. 2018년에 출시된 Google의 BERT 모델을 기반으로 합니다. BERT를 기반으로 하며 주요 하이퍼파라미터를 수정하여 다음 문장 사전 훈련 목표를 제거하고 훨씬 더 큰 미니 배치 및 학습 속도로 훈련합니다. 14 | 15 | 16 | ## 참조 17 | 1. https://huggingface.co/cardiffnlp/twitter-xlm-roberta-base-sentiment 18 | 2. https://github.com/facebookresearch/fairseq/tree/main/examples/xlmr -------------------------------------------------------------------------------- /glossary/guide.qmd: -------------------------------------------------------------------------------- 1 | # 가이드 문서 {.unnumbered} 2 | 3 | 이 문서는 용어 사전을 사용하는 방법과 용어를 등록하기 위한 정보를 전달하기 위해 작성되었습니다. 4 | 5 | ## 용어 페이지 구조 6 | 7 | 용어 사전에 등록된 용어 설명 페이지의 구조를 알아봅니다. 용어 사전에 등록된 상세 페이지는 영어와 한국어 용어 이름으로 구성됩니다. 아래의 `archirecture`로 등록된 상세 페이지를 통해 좀 더 자세히 알아보겠습니다. `architecture`라는 영어에 대한 한국어 용어명이 바로 `아키텍처`로 표시됩니다. 바로 밑에는 마크다운 배지로 영어 용어가 사용되었던 원본 문서 링크가 연결되었습니다. 8 | 9 | ![](images/paste-4.png) 10 | 11 | `arcitrecture`용어에 대한 웹페이지는 용어 사전 소스파일의 `archirecture.qmd`파일의 정보로 생성됩니다. 코드의 상단의 `title`과 `description`은 각각 용어의 영어와 한국어 표현을 나타내고 `url`은 용어가 나온 원본 문서의 위치를 의미합니다. 용어 사전의 정보가 코드로 어떻게 표현되었는지 아래의 코드에서 확인할 수 있습니다. 12 | 13 | ``` html 14 | --- 15 | title: 'architecture' 16 | description: '아키텍처' 17 | url: https://huggingface.co/docs/transformers/index 18 | --- 19 | 20 | src: HuggingFace Transformer 23 | 24 | ``` 25 | 26 | 딥러닝 분야에 따라 동일한 용어가 다른 뜻으로 사용되거나 문서에 따라 한국어 번역 방식이 다를 수 있습니다. 각 문서에는 원본 문서에 대한 링크가 있기 때문에 원본 문서별로 일관성 있게 번역 용어가 사용될 수 있습니다. 마크다운 배지는 `image shields io`를 이용합니다. 배지의 생성 방식은 코드에서 이미지 소스의 주소를 잘 살펴보면 이해할 수 있습니다. 마크다운 배지에 표시되는 문구는 `img shields io`에 전달하는 URL 정보와 동일하네요. 위의 코드에서는 `문서-Huggingface_Transformer-blue` 를 이미지 위치로 전달했고 `문서`, `Huggingface_Transformer`, `blue`의 3개의 배지 정보는 구분자 `-`로 분리됩니다. 공백을 `_`로 표시했음을 주의하세요. 27 | 28 | # Quarto 문서 작성하기 {.unnumbered} 29 | 30 | 문서를 작성을 위해 `quarto`에 대해서 배워봅니다. 31 | 32 | ## 준비 하기 33 | 34 | 딥러닝 용어 사전은 `quarto`를 이용하여 작성되었습니다. [Quarto 웹사이트](https://quarto.org/docs/get-started/)로 이동하여 프로그램을 설치해주세요. 설치가 완료되었다면 이제 본격적으로 문서를 작성할 준비를 끝났습니다. 35 | 36 | 용어 사전의 구조를 살펴볼까요? 용어 사전에 작성된 용어들은 아래의 `terms`폴더에 하나의 파일 형태로 생성됩니다. 예를 들어 `convolution`을 수정하는 경우 `terms` 폴더에 생성된 `convolution.qmd`파일을 수정합니다. 37 | 38 | ``` 39 | ├── glossary 40 | │ ├── dictionary 41 | | │ └── terms 42 | | | ├── architecture.qmd 43 | | | ... 44 | | | ├── convolution.qmd 45 | | | ... 46 | | │ └── speech_enhancement.qmd 47 | ``` 48 | 49 | ### 새로운 용어 작성 50 | 51 | 앗, 제가 찾는 용어가 없습니다! 새로운 용어를 등록하는 경우 `terms`폴더에 등록하려는 용어명과 동일한 파일명으로 `qmd`파일을 생성합니다. 52 | 53 | ::: {.callout-note} 54 | ## 신규용어 파일명 생성 규칙 55 | 56 | - 신규 용어는 모두 소문자이며 공백은 `_`로 변경하여 파일명을 생성합니다. 57 | - 파일명은 모두 `소문자`로 작성하고 공백은 `_`로 대체하여 사용하고 있습니다. 58 | - 같은 파일명이 있는 경우 `_1`, `_2`와 같이 `postfix`를 붙여 추가합니다. 59 | - `directory.qmd` 60 | - `directory_1.qmd` 61 | ::: 62 | 63 | 신규 용어 파일명 생성 규칙에 맞게 파일을 생성한 후 문서 작성을 시작합니다. 64 | 65 | 66 | ## 문서 작성 67 | 68 | 딥러닝 용어사전은 깃헙 리포지토리(repository)로 관리되기 때문에 문서 작성을 위해서 Pseudo-Lab 깃 리포지토리를 Fork하여 문서를 작업합니다. Fork된 리포지토리에서 수정할 웹페이지의 html 파일명과 동일한 이름의 `qmd` 확장자 파일을 열어 문서를 수정할 수 있습니다. 69 | 70 | 문서 작성은 기본적으로 markdown언어를 이용하여 작성하지만 markdown에 익숙하지 않은 경우라면 Visual Code를 이용하는 것을 추천드립니다. Visual Code의 extention 메뉴에서 `quarto`를 검색하여 익스텐션을 설치할 수 있으며 @fig-quarto_extension 의 quarto 익스텐션은 GUI환경에서 문서를 쉽게 작성있도록 도와줍니다. 71 | 72 | ![Quarto Extention](images/paste-1.png){#fig-quarto_extension fig-align="center"} 73 | 74 | Visual Code에서 자신이 수정할 문서를 선택하고 마우스 우측 버튼을 누르면 `Edit in Visual Mode`를 선택할 수 있습니다. 선택을 완료하면 markdown형태로 표시되던 문서가 wysiwyg[^1] 에디터로 변경되고 @fig-guieditor 와 같이 메뉴를 통해서 문서를 작성할 수 있습니다. 75 | 76 | [^1]: wysiwyg(What You See is What You Get)의 약자로 문서 작성 방법을 GUI로 구현한 에디터 입니다. 77 | 78 | ![VS Code Visual Mode](images/paste-3.png){#fig-guieditor fig-align="center"} 79 | 80 | ## 미리 보기 81 | 82 | VS Code등의 에디터를 사용했다면 자신이 수정한 내용을 바로 확인할 수 있습니다. 만일 GUI방식으로 문서를 작성하지 않는 경우 아래의 `quarto preview`명령을 이용해서 문서를 로컬 웹브라우져에서 확인할 수 있습니다. 83 | 84 | ``` python 85 | cd glossary 86 | quarto preview 87 | ``` 88 | 89 | `preview`명령을 수행하면 로컬 컴퓨터에 브라우져가 실행되고 수정된 웹사이트를 바로 확인할 수 있습니다. 변경사항에 문제가 없다면 이제 PR(Pull Request)를 진행할 수 있습니다. 90 | 91 | # Pull Request 작성하기 {.unnumbered} 92 | 93 | PR(Pull Request)는 오픈소스 개발에서 주로 사용되는 개념입니다. 변경 사항을 다른 개발자들와 리뷰하고 통합하기 위해 사용됩니다. 일반적인 진행 방식은 아래와 같습니다. 94 | 95 | - 변경점 적용을 위해서 깃헙 사이드에서 `딥러닝 용어사전` 원본 리포지토리를 `Fork`하여 리포지토리를 새롭게 생성합니다. 96 | 97 | - `Fork`한 리포지토리에서 수정을 진행하기 위한 branch를 생성하고 수정을 진행합니다. (이 때 하나의 PR이 하나의 변경점을 갖도록 작업합니다. 변경점에 대한 이해와 다른 개발자들의 리뷰에 도움이 됩니다.) 98 | 99 | - 리포지토리로 `push`를 진행하면 자신의 깃헙 사이트에 PR 버튼이 생성된 것을 확인할 수 있습니다. 변경점에 대한 설명을 [PR 템플릿](https://gist.github.com/gabrielwithappy/4eee95b79af5fb0445b205925bc9a4ec)을 이용해 작성하고 PR버튼을 누르면 원본 리포지토리에 PR이 생성됩니다. 100 | 101 | - 다른 개발자들의 리뷰가 진행되어 수정사항이 있다면 내용을 반영하고 `push`하는 과정을 반복합니다. 102 | 103 | - 리뷰에 대한 수정이 완료되었다면 PR 템플릿을 참고하여 머지를 요청합니다. 승인이 완료되면 원본 리포지토리에 변경점이 적용됩니다. 104 | 105 | 이제 여러분이 작성한 용어를 용어 사전에서 확인할 수 있습니다! PR에 대한 좀 더 자세한 설명을 원하신다면 참고 링크[^2] [^3]를 확인 부탁드립니다. 106 | 107 | [^2]: https://won.hashnode.dev/a-comprehensive-guide-to-mastering-github-pr-reviews 108 | 109 | [^3]: http://www.publickrdata.com/blog/74/ 110 | -------------------------------------------------------------------------------- /glossary/images/paste-1.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/Pseudo-Lab/deep-learning-glossary/8a96c517310535c79e6bdc1ef78fc136e8c349f8/glossary/images/paste-1.png -------------------------------------------------------------------------------- /glossary/images/paste-2.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/Pseudo-Lab/deep-learning-glossary/8a96c517310535c79e6bdc1ef78fc136e8c349f8/glossary/images/paste-2.png -------------------------------------------------------------------------------- /glossary/images/paste-3.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/Pseudo-Lab/deep-learning-glossary/8a96c517310535c79e6bdc1ef78fc136e8c349f8/glossary/images/paste-3.png -------------------------------------------------------------------------------- /glossary/images/paste-4.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/Pseudo-Lab/deep-learning-glossary/8a96c517310535c79e6bdc1ef78fc136e8c349f8/glossary/images/paste-4.png -------------------------------------------------------------------------------- /glossary/images/paste-6.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/Pseudo-Lab/deep-learning-glossary/8a96c517310535c79e6bdc1ef78fc136e8c349f8/glossary/images/paste-6.png -------------------------------------------------------------------------------- /glossary/images/pseudo-lab-1200x630.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/Pseudo-Lab/deep-learning-glossary/8a96c517310535c79e6bdc1ef78fc136e8c349f8/glossary/images/pseudo-lab-1200x630.png -------------------------------------------------------------------------------- /glossary/images/pseudo-lab-pavicon.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/Pseudo-Lab/deep-learning-glossary/8a96c517310535c79e6bdc1ef78fc136e8c349f8/glossary/images/pseudo-lab-pavicon.png -------------------------------------------------------------------------------- /glossary/images/pseudo-lab.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/Pseudo-Lab/deep-learning-glossary/8a96c517310535c79e6bdc1ef78fc136e8c349f8/glossary/images/pseudo-lab.png -------------------------------------------------------------------------------- /glossary/index.qmd: -------------------------------------------------------------------------------- 1 | --- 2 | callout-icon: false 3 | --- 4 | 5 | ![](images/paste-6.png) 6 | 7 | # 딥러닝 용어 사전 {.unnumbered} 8 | 9 | 딥러닝 영어문서를 일관성 있게 한국어로 번역하고 용어의 의미를 정리하기 위한 오픈소스 용어 사전입니다. 10 | 11 | ## 시작하기 전에 12 | 13 | 용어 사전은 여러분의 도움이 필요합니다. 빠르게 발전하고 있는 딥러닝 분야는 새로운 용어가 많아 정확한 의미를 찾기 어렵고 한국어 문서를 찾기 어렵습니다. 기계 번역으로 생성되는 한글 문서는 편리하긴 하지만 통일되지 않은 한국어 용어가 사용되는 문제점이 있어 실제 원문에서 전달하려는 의미가 다르게 전달될 수 있습니다. 14 | 15 | 만약 각자가 공부했던 내용을 조금씩 정리하며 모으면서 함께 발전하는 용어 사전이 있다면 어떨까요? 아직 용어 사전은 부족해서 찾으려는 한국어 용어와 설명이 없을 수 있지만 참여해 주시는 분들이 늘어날수록 내가 필요한 용어를 쉽게 찾을 수 있을 겁니다. 16 | 17 | 시작은 가볍게 궁금했던 용어를 찾아보는 것으로 시작해 보셔도 좋습니다. 도움이 되셨다면 딥러닝을 공부할 때 어려웠던 기억을 떠올리며 사람들에게 여러분의 지식을 나누어 주세요. [용어 사전](./dictionary/glossary.qmd)을 통해서 함께 발전하길 바랍니다. 18 | 19 | ## 번역 프로젝트 20 | 21 | 용어 사전은 아래의 번역 프로젝트와 함께하고 있습니다. 번역 작업 중인 문서에 대해 프로젝트 카드를 등록을 요청할 수 있으니 용어 사전과 함께 번역 작업을 진행하는 건 어떨까요? 22 | 23 | ::: g-col-12 24 | ::: {.callout-note appearance="simple"} 25 | **🤗 HuggingFace - Transformers** \[Link »\] 26 | ::: 27 | 28 | ::: {.callout-note appearance="simple"} 29 | **🤗 HuggingFace - Audio Course** \[Link »\] 30 | ::: 31 | 32 | ::: {.callout-note appearance="simple"} 33 | **🤗 HuggingFace - Diffuser** \[Link »\] 34 | ::: 35 | 36 | ::: {.callout-note appearance="simple"} 37 | **가짜연구소 인과추론팀** 38 | ::: 39 | 40 | ::: {.callout-note appearance="simple"} 41 | **함께 해요** - 새로운 프로젝트를 기다립니다. 42 | ::: 43 | ::: 44 | 45 | -------------------------------------------------------------------------------- /glossary/intro.html/googleb64f32a1f0de3b5f.html: -------------------------------------------------------------------------------- 1 | google-site-verification: googleb64f32a1f0de3b5f.html 2 | -------------------------------------------------------------------------------- /glossary/references.bib: -------------------------------------------------------------------------------- 1 | @article{knuth84, 2 | author = {Knuth, Donald E.}, 3 | title = {Literate Programming}, 4 | year = {1984}, 5 | issue_date = {May 1984}, 6 | publisher = {Oxford University Press, Inc.}, 7 | address = {USA}, 8 | volume = {27}, 9 | number = {2}, 10 | issn = {0010-4620}, 11 | url = {https://doi.org/10.1093/comjnl/27.2.97}, 12 | doi = {10.1093/comjnl/27.2.97}, 13 | journal = {Comput. J.}, 14 | month = may, 15 | pages = {97–111}, 16 | numpages = {15} 17 | } 18 | 19 | 20 | --------------------------------------------------------------------------------