일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 인공지능
- QGIS설치
- 머신러닝
- 딥러닝
- Ai
- 3유형
- ㅂ
- 2유형
- DASH
- 캐글
- webserving
- 공간분석
- GPU
- 성능
- 공간시각화
- gradio
- 빅데이터분석기사
- streamlit
- 예제소스
- CUDA
- 실기
- pytorch
- ml 웹서빙
- 1유형
- Kaggle
- dl
- qgis
- fastapi
- KNN
- K최근접이웃
- Today
- Total
목록분류 전체보기 (88)
에코프로.AI
지난 몇 섹션에서는 대부분의 작업을 수작업으로 수행하는 방법으로 실습을 진행했습니다. tokenizers 의 작동 방식을 살펴보고 토큰화( tokenization ), input IDs 로의 변환, 패딩( padding ), 잘림( truncation )및 주의 마스크( attention masks )에 대해 살펴봤습니다. 그러나 섹션 2에서 살펴본 것처럼 🤗 트랜스포머 API는 이 모든 것을 높은 수준의 함수를 통해 처리할 수 있으며, 여기서 자세히 살펴볼 것입니다. 문장에서 토큰화 도구를 직접 호출하면 모델을 통과할 준비가 된 입력을 반환받습니다:from transformers import AutoTokenizercheckpoint = "distilbert-base-uncased-finetuned..

이전 섹션에서는 가장 간단한 사용 사례인 짧은 길이의 단일 시퀀스에 대해 추론을 수행하는 방법을 살펴보았습니다. 하지만 이미 몇 가지 의문이 생겼습니다:여러 개의 시퀀스를 어떻게 처리하나요?길이가 다른 여러 시퀀스를 어떻게 처리하나요 ?어휘 색인이 모델이 잘 작동하는 데 필요한 유일한 입력일까요?시퀀스가 너무 길다는 게 있을까?이러한 질문이 어떤 종류의 문제를 제기하는지 살펴보고, 🤗 Transformers API를 사용하여 이러한 문제를 어떻게 해결할 수 있는지 알아보겠습니다. 모델은 일괄 입력을 예상합니다.이전 연습에서 시퀀스가 숫자 목록으로 변환되는 방식을 살펴보았습니다. 이 숫자 목록을 텐서로 변환하여 모델로 보내 보겠습니다.import torchfrom transformers import ..

Tokenizers 는 NLP 파이프라인의 핵심 구성 요소 중 하나입니다. Tokenizers 는 텍스트를 모델에서 처리할 수 있는 데이터로 변환하는 한 가지 용도로 사용됩니다. 모델은 숫자만 처리할 수 있으므로 Tokenizers 는 텍스트 입력을 숫자 데이터로 변환해야 합니다. 이 섹션에서는 토큰화 파이프라인에서 정확히 어떤 일이 일어나는지 살펴보겠습니다. NLP 작업에서 일반적으로 처리되는 데이터는 원시 텍스트입니다. 다음은 이러한 텍스트의 예입니다:Jim Henson was a puppeteer 하지만 모델은 숫자만 처리할 수 있으므로 원시 텍스트를 숫자로 변환하는 방법을 찾아야 합니다. 이것이 바로 토큰화 도구가 하는 일이며, 이를 수행하는 방법에는 여러 가지가 있습니다. 목표는 가장 의미 있는..
이 섹션에서는 모델을 만들고 사용하는 방법을 자세히 살펴보겠습니다. 체크포인트에서 모델을 인스턴스화할 때 유용한 AutoModel 클래스를 사용하겠습니다. AutoModel 클래스와 그 모든 관계된 클래스는 사실 라이브러리에서 사용할 수 있는 다양한 모델에 대한 간단한 래퍼입니다. 체크포인트에 적합한 모델 아키텍처를 자동으로 추측한 다음 이 아키텍처로 모델을 인스턴스화할 수 있으므로 영리한 래퍼입니다.그러나 사용하려는 모델 유형을 알고 있다면 해당 아키텍처를 정의하는 클래스를 직접 사용할 수 있습니다. BERT 모델에서 이것이 어떻게 작동하는지 살펴보겠습니다.구현환경IDE : vscodeLanguage : Python가상환경 생성라이브러리 설치 (torch 를 사용하는, transformers 라이브러리..

HuggingFace의 pipeline() 함수를 실행 시, 내부적으로 어떤 절차로 처리가 되는지 확인 합니다. 전체 예제부터 시작하여 다음 코드를 실행했을 때 백그라운드에서 어떤 일이 발생했는지 살펴보겠습니다.from transformers import pipelineclassifier = pipeline("sentiment-analysis")classifier( [ "I've been waiting for a HuggingFace course my whole life.", "I hate this so much!", ])처리결과[{'label': 'POSITIVE', 'score': 0.9598047137260437}, {'label': 'NEGATIVE', 'sco..

1. 윈도우 하단의 작업표시줄에서 오른쪽 마우스 클릭 후, "작업 표시줄 설정(T)"항목 선택 2. "시스템 아이콘 켜기 또는 크기" 선택 3. "시계" 항목의 "켬" 슬라이드를 선택해서, 켜고/끌수 있습니다. 4.끄면 아래와 같이, 날짜/시간 표시가 보이지 않습니다. 끝~

트랜스포머 역사에 대한 간단한 소개 Transformer 아키텍처는 2017년 6월에 도입되었습니다. 원래 연구의 초점은 번역 작업에 맞춰져 있었습니다. 그 후 다음을 포함한 여러 영향력 있는 모델이 도입되었습니다.2018년 6월 : 다양한 NLP 작업에 대한 미세 조정에 사용된 최초의 사전 학습된 Transformer 모델인 GPT를 통해 최고의 결과를 얻었습니다.2018년 10월 : 또 다른 대규모 사전 학습된 모델인 BERT는 문장을 더 잘 요약하도록 설계되었습니다2019년 2월 : 윤리적 문제로 인해 즉시 대중에 공개되지 않은 GPT의 개선된(그리고 더 큰) 버전인 GPT-22019년 10월 : DistilBERT 는 BERT의 증류 버전으로 60% 더 빠르고 메모리는 40% 더 가벼우며 BER..
1. Hugging Face란 무엇인가?Hugging Face는 자연어 처리(NLP)와 머신러닝(ML) 모델의 개발 및 배포를 돕는 오픈소스 중심의 AI 플랫폼입니다. 특히 Transformers 라이브러리를 통해 딥러닝 기반의 NLP 모델(예: BERT, GPT, T5 등)을 손쉽게 사용할 수 있도록 지원합니다. 최근에는 컴퓨터 비전(CV)과 멀티모달 모델로도 확장되고 있으며, 모델 허브, 데이터셋, 교육 자료를 제공해 AI 개발자와 연구자에게 필수적인 도구로 자리 잡고 있습니다. 2. 인공지능 개발에 유용한 이유오픈소스 접근성 : 최신 AI 모델을 무료로 활용하고 수정할 수 있는 강력한 오픈소스 라이브러리를 제공합니다.사전 훈련된 모델 : 수천 개의 사전 훈련된 모델을 통해 개발자가 시간과 비용을 절..

1. 아래의 링크를 확인하여, PostgreSQL 과 dbeaver 를 설치 해 줍니다.https://www.ecopro.ai/entry/PostgreSQL-%EC%84%A4%EC%B9%98-%EB%B0%8F-%EB%8D%B0%EC%9D%B4%ED%84%B0-%EC%A0%80%EC%9E%A5-Feat-Python PostgreSQL 설치 및 데이터 저장 (Feat. Python)PostgreSQL & DBeaver 설치PostgreSQL 다운로드 및 설치PostgreSQL 사이트https://www.postgresql.org/download/windows/PostgreSQL 다운로드 사이트https://www.enterprisedb.com/downloads/postgres-postgresql-downlo..

Django는 빠르고 안전하며 확장 가능한 웹 개발을 위해 설계된 고급 Python 프레임워크입니다. Django에는 URL 라우팅, 페이지 템플릿 및 데이터 작업에 대한 풍부한 지원이 포함되어 있습니다.이 Django 튜토리얼에서는 공통 기본 템플릿을 사용하는 세 페이지로 구성된 간단한 Django 앱을 만듭니다. 필수조건이 Flask 튜토리얼을 성공적으로 완료하려면 다음을 수행해야 합니다( 일반 Python 튜토리얼 과 동일한 단계 ).Python 확장 프로그램을 설치합니다 .Python 3 버전을 설치하세요(이 튜토리얼은 이 버전을 위해 작성되었습니다). 옵션은 다음과 같습니다.(모든 운영 체제) python.org 에서 다운로드하세요 . 일반적으로 페이지에 먼저 나타나는 다운로드 버튼을 사용하세요..