전체 글 71

프롬프트 엔지니어링, AI 성능을 극대화하는 기술

수업 내용 리마인드 및 아카이빙 목적의 업로드 프롬프트 엔지니어링이란?최근 AI 업계에서 자주 언급되는 프롬프트 엔지니어링(Prompt Engineering), 들어보셨나요? 이 개념은 대규모 언어 모델(LLM)을 이용한 AI와 대화할 때, AI가 우리가 원하는 답변을 정확하게 내놓도록 프롬프트(명령어)를 공들여 작성하고 최적화하는 과정을 뜻합니다. 즉, AI가 특정 작업을 효과적으로 수행하도록 명령을 잘 만드는 기술이라고 할 수 있죠.쉽게 말해, 프롬프트 엔지니어링은 AI와의 대화를 설계하는 것과 같습니다. 여러분이 AI에게 "오늘의 날씨는?"이라고 물어볼 때, 단순한 질문이지만, 만약 AI가 이에 대해 잘못된 답변을 주거나 애매한 정보를 제공한다면, 프롬프트 엔지니어링이 필요한 상황입니다. 올바른 프..

+ 개발 2024.10.02

생성형 AI: ChatGPT, 기존 AI와 뭐가 다를까?

수업 내용 리마인드 및 아카이빙 목적의 업로드 ChatGPT란?2022년 11월, OpenAI가 세상에 선보인 ChatGPT는 출시와 동시에 큰 반향을 일으켰습니다. ChatGPT는 단순한 인공지능이 아닙니다. Generative AI, 즉 생성형 인공지능의 일종으로, 사용자가 입력한 텍스트에 맞춰 자연스럽고 창의적인 대화를 생성해 줍니다. 이 놀라운 기술은 GPT(Generative Pre-trained Transformer)라는 모델을 기반으로 하고 있죠. ChatGPT는 이 모델을 바탕으로 다양한 텍스트 데이터를 학습한 후, 새로운 문장을 만들어내는 능력을 갖추고 있습니다. ChatGPT는 어떻게 작동할까요?ChatGPT의 핵심은 GPT 모델입니다. GPT는 사전 학습(Pre-training) 과정..

+ 개발 2024.10.01

생성형 AI 완벽 가이드: 개념부터 활용 사례까지

수업 내용 리마인드 및 아카이빙 목적의 업로드 생성형 AI란 무엇일까요?요즘 기술 업계에서 자주 등장하는 "생성형 AI"란 용어, 많이 들어보셨나요? 간단히 말해, 생성형 AI(Generative AI)는 인간이 입력한 데이터와 명령을 기반으로 새로운 콘텐츠를 만들어내는 인공지능 기술을 뜻합니다. 기존의 AI가 주어진 데이터를 학습하여 예측이나 분류 작업을 주로 했다면, 생성형 AI는 그 데이터를 바탕으로 완전히 새로운 텍스트, 이미지, 영상 등을 생성할 수 있죠. 예를 들어, ChatGPT가 여러분의 질문에 맞춰 자연스러운 대화를 만들어 내거나, 미드저니(Midjourney)가 텍스트 명령을 받아 환상적인 이미지를 창작하는 것들이 모두 생성형 AI의 결과물입니다. 생성형 AI의 작동 원리생성형 AI가 ..

+ 개발 2024.09.30

BERT 모델의 개념과 학습 과정

수업 내용 리마인드 및 아카이빙 목적의 업로드 BERT(Bidirectional Encoder Representations from Transformers)는 2018년 구글이 발표한 획기적인 자연어 처리(NLP) 모델입니다. BERT는 Transformer 아키텍처의 양방향 인코더를 기반으로 하여, 입력된 텍스트의 모든 단어를 양방향으로 동시에 처리합니다. 이를 통해 문맥을 더 깊이 이해하고, 기존 모델들보다 높은 성능을 발휘할 수 있게 되었습니다. 이번 글에서는 BERT 모델의 기본 개념, 학습 과정, 모델 구조, 그리고 파인튜닝(Fine-Tuning) 방법을 자세히 알아보겠습니다. 1. BERT 모델이란?BERT는 Transformer 아키텍처의 인코더 부분을 활용한 사전 학습된(pre-traine..

+ 개발 2024.09.29

Transformer 모델의 원리와 작동 방식

수업 내용 리마인드 및 아카이빙 목적의 업로드 Transformer 모델은 최근 자연어 처리(NLP)와 컴퓨터 비전 분야에서 가장 주목받는 딥러닝 기술 중 하나입니다. 기존의 순환신경망(RNN) 기반 모델들이 가진 여러 한계를 극복하며, 빠르고 정확한 성능을 보여주고 있습니다. 이 글에서는 Transformer 모델의 핵심 개념, 작동 방식, 그리고 그 장점을 자세히 알아보겠습니다. 1. Transformer란?Transformer는 RNN이나 LSTM과 달리 입력 시퀀스를 순차적으로 처리하지 않고, 병렬 처리를 통해 데이터를 학습하는 모델입니다. 특히 Self-Attention 메커니즘을 도입하여 시퀀스 내 모든 단어 간의 상호작용을 동시에 계산합니다. 이 방식은 RNN의 단점인 장기 의존성 문제를 해..

+ 개발 2024.09.28

Attention 기반 모델: 중요한 정보에 집중하는 번역

수업 내용 리마인드 및 아카이빙 목적의 업로드 Attention 메커니즘이 적용된 Seq2Seq 구조Attention 사용디코더는 인코더의 모든 출력(hidden state)을 활용하여 더 정확한 번역을 수행  이번 글에서는 Seq2Seq 모델을 사용하여 영어-프랑스어 번역 모델을 구축하고 학습하는 과정을 단계별로 설명합니다. 이 프로젝트는 자연어 처리(NLP)에서 많이 사용되는 Seq2Seq 구조를 적용해 언어 간 번역을 수행하는 모델을 만드는 과정입니다. 1. 필요한 모듈 임포트프로젝트에서 사용되는 주요 모듈들을 먼저 설치하고 불러옵니다. 이 과정에서는 PyTorch 라이브러리를 이용해 딥러닝 모델을 구현하고, 데이터 처리에는 Pandas와 Numpy를 사용합니다.# 필요 모듈 설치!pip insta..

+ 개발 2024.09.27

Seq2Seq 모델: 간단한 구조로 문장을 번역

수업 내용 리마인드 및 아카이빙 목적의 업로드 기본 Seq2Seq 구조Attention 미사용인코더의 마지막 hidden state만 디코더에 입력으로 사용 이번 글에서는 Seq2Seq(Sequence-to-Sequence) 모델을 활용하여 영어 문장을 프랑스어로 번역하는 모델을 구축하는 과정을 단계별로 설명해드리겠습니다. 데이터 다운로드, 전처리, 모델 구성, 학습, 그리고 번역까지의 전 과정을 다룹니다. 이 글을 통해 자연어 처리에서 Seq2Seq 모델을 어떻게 활용하는지 이해하고 직접 구현할 수 있을 거예요.  1. 필요 모듈 임포트우선, 데이터 처리와 모델 구축을 위해 필요한 모듈을 모두 임포트합니다. PyTorch, Numpy, Pandas 등의 라이브러리를 사용하여 데이터를 처리하고, torc..

+ 개발 2024.09.26

Seq2Seq와 Attention의 차이점과 활용(자연어 처리)

수업 내용 리마인드 및 아카이빙 목적의 업로드  Seq2Seq(Sequence to Sequence) 모델은 특히 기계 번역, 텍스트 요약, 질문 답변 등에서 뛰어난 성능을 발휘하는 모델입니다. 이 모델은 하나의 문장(입력 시퀀스)을 받아 또 다른 문장(출력 시퀀스)으로 변환하는 방식으로 작동합니다. 오늘은 Seq2Seq 모델의 기본 개념과 그 한계를 보완한 Attention 메커니즘에 대해 알아보겠습니다.  1. Seq2Seq 모델이란?Seq2Seq는 RNN 계열의 모델로, 하나의 시퀀스를 입력받아 또 다른 시퀀스를 출력하는 구조입니다. 이 모델은 주로 기계 번역에서 많이 사용됩니다. 예를 들어, 영어 문장을 입력하면 그에 해당하는 한국어 문장을 출력하는 방식이죠. 1) Seq2Seq의 구조Seq2Se..

+ 개발 2024.09.25

파이토치(Pytorch): LSTM 기반 GasRateCO2 시계열 예측 모델 구현

수업 내용 리마인드 및 아카이빙 목적의 업로드 이번 글에서는 GasRateCO2 데이터셋을 사용해 시계열 예측을 진행하는 과정을 소개할게요. 우리는 파이토치 기반의 LSTM(Long Short-Term Memory) 모델을 사용해서 예측 작업을 수행할 거예요. 데이터를 불러오고 전처리한 뒤, 모델을 학습시키고 평가하는 전 과정을 함께 진행해 보겠습니다. 1. 필요 모듈 임포트우선, 필요한 모듈을 임포트해볼게요. torch, darts, torchinfo 등의 모듈을 사용하고, GPU가 사용 가능한지 확인해볼게요.!pip install darts!pip install torchinfoimport torchimport torch.nn as nnimport torch.optim as optimfrom torc..

+ 개발 2024.09.24

파이토치(Pytorch): LSTM 기반 주식 예측 모델 구현

수업 내용 리마인드 및 아카이빙 목적의 업로드 이번 글에서는 LSTM(Long Short-Term Memory) 모델을 사용해 주식 데이터를 예측하는 과정을 단계별로 설명하려고 합니다. 주식 시장의 데이터는 시간에 따라 변화하는 시계열 데이터로, 과거 데이터를 바탕으로 미래의 주가를 예측하는 데 LSTM은 RNN의 한계를 보완한 적합한 모델입니다. 1. 필요한 모듈 임포트먼저, 필요한 모듈을 모두 임포트하고 GPU가 사용 가능한 경우 이를 설정합니다.import torchimport torch.nn as nnimport torch.optim as optimfrom torchinfo import summaryfrom torch.utils.data import Dataset, DataLoaderimport ..

+ 개발 2024.09.23