프롬프트 엔지니어링 7요소
효과적인 프롬프트를 작성하기 위해 알아두면 좋은 7가지 요소가 있습니다. 하지만 상황에 따라 이 중 일부만 선택해도 충분합니다.
Objective
우선 AI에게 원하는 바를 명확하게 전달하는 것이 중요합니다. 서술어를 활용해 구체적으로 지시하는 거죠. "분석해줘", "요약해줘"와 같은 서술어 선택에 따라 결과물이 달라질 수 있습니다.
서술어가 많아지면 그만큼 AI의 동작도 복잡해지니, 단계별로 절차를 설명하는 것도 좋은 방법입니다. 원하는 아웃풋 형식(포맷)을 미리 지정해주는 것도 도움이 됩니다.
Context
두번째로 중요한 건 배경 정보와 제약 사항 등 콘텍스트를 제공하는 일입니다. 하지만 너무 장황할 필요는 없습니다. 핵심만 간결하게 전달하는 게 포인트입니다.
결과물에 직접적으로 영향을 주지 않지만 '알아두면 좋겠지'하고 정보를 많이 주면 의도하지 않은 결과가 나올 확률이 높습니다. ChatGPT가 많은 정보에 목적을 헷갈릴 수도 있고, 필요 없는 정보를 '굳이' 반영할 수도 있기 때문입니다.
반대로 너무 맥락이 없어도 문제가 될 수 있습니다. 부족한 정보는 챗GPT가 제멋대로 만들어서 채워줍니다. 매우 일반적인 내용이 나오기 때문에 대체로 유용하지 않습니다.
꼭 필요한 맥락 정보를 간결하게 요약해서 전달하는 게 중요합니다.
Role
어떤 역할을 부여하느냐도 중요합니다. 해당 문제를 가장 잘 해결할 수 있는 전문가의 입장이 되어보라고 지시하는 것입니다. 작가, 개발자, 마케터 등 구체적인 직업을 지정하거나 해당 분야에서 필요한 역량을 언급해주는 것도 좋습니다.
Example / Guideline
다음 팁은 답변 예시 혹은 지침을 활용입니다.
추상적인 설명보다는 구체적인 예시가 AI가 이해하기에 훨씬 좋습니다. 다만 예시가 지나치게 길어지면 오히려 혼란을 줄 수 있으니, 이럴 땐 적당히 추상화된 지침을 섞어주는 것이 효과적입니다.
Tone / Audience / Information
프롬프트 작성 시 놓치지 말아야 할 몇 가지 요소들이 더 있습니다.
- 어조(Tone)
결과물에서 느껴지는 분위기나 어조를 결정하는 부분입니다. "친근한 말투로 작성해줘", "정중하고 격식을 갖춰주세요", "전문용어를 많이 사용해 주세요" 등으로 지정할 수 있습니다. - 독자 혹은 청자(Audience)
콘텐츠를 받아들이는 사람의 수준을 고려하는 것도 중요합니다. "초등학생도 이해할 수 있게 써줘", "5년차 마케터 대상으로 작성해줘", "IT 비전공자도 알아들을 수 있도록 해줘" 등으로 명시할 수 있습니다. - 정보(Information)
결과물에 꼭 포함되어야 할 정보를 제공하는 부분입니다. 키워드나 핵심 문장을 간결하게 입력하는 것이 포인트입니다. 너무 많은 정보를 한꺼번에 주면 AI가 중요한 내용을 놓칠 수 있습니다.
중요! 필요한 내용을 간결하게!
프롬프트를 작성할 때 반드시 고려해야 하는 가장 중요한 부분은 다음과 같습니다. '필요한 내용을 간결하게 작성하라!'
ChatGPT는 한 번에 처리할 수 있는 정보량이 '토큰'이라는 단위로 제한되어 있습니다. GPT-4 기준으로 한글은 영어보다 약 3배 비효율적입니다. 최근 GPT-4o 모델에서 조금 개선되긴 했습니다.
토큰 문제 외에도 정보가 지나치게 많으면 챗GPT가 핵심을 놓칠 수 있다는 문제가 있습니다. 심지어 불필요한 내용을 포함하기도 합니다. 그러니 꼭 필요한 정보만 담되, 중점을 명확히 짚어주어야 합니다.
'Artificial Intelligence' 카테고리의 다른 글
FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness (0) | 2024.06.05 |
---|---|
GAN(Generative adversarial network) 이란? (0) | 2023.01.07 |
Top 10 Performance Tuning Practices for Pytorch (0) | 2022.09.21 |
ImageNet Dataset 압축해제 및 처리 방법 (0) | 2022.08.10 |
ZeRO-2 & DeepSpeed: Shattering barriers of deep learning speed & scale (0) | 2022.07.29 |