🚀 PREDAQ 사용 가이드
로컬 파일 실시간 분석: AI와 함께하는 페어 프로그래밍 💻🔄
바로 그 점을 해결하기 위해 PREDAQ의 ✨로컬 파일 실시간 분석✨ 기능이 탄생했습니다! 이 기능을 사용하면 사용자의 PC에 있는 파일을 AI가 직접 읽고, 사용자가 파일을 수정하면 그 변경사항을 즉시 인지하여 대화를 이어나갈 수 있습니다. 더 이상 코드를 복사해서 붙여넣을 필요가 없죠. 🚀
실시간 코드 수정 및 대화 예시
다양한 언어로 AI와 상호작용하는 과정을 살펴보세요.
1. Python: 웹 애플리케이션 디버깅
main.py
와 index.html
파일을 첨부합니다)첨부한 Python Flask 코드(main.py)와 HTML(index.html) 파일에 문제가 없는지 검토해줘.
main.py
의 /
라우트에서 render_template
함수에 'message' 변수를 전달하고 있지만, index.html
에서는 이 변수를 사용하고 있지 않네요. 불필요한 코드이거나, HTML에 해당 내용이 누락된 것 같습니다.
main.py
파일을 열어 해당 부분을 수정하고 저장합니다. 파일을 다시 첨부하지 않습니다.)아, 맞네. 방금
main.py
에서 불필요한 변수 전달 코드를 삭제했어. 이제 다시 확인해줄래?
main.py
파일을 확인했습니다. 이제 코드의 논리가 명확해졌네요! 다른 문제는 보이지 않습니다. 훌륭합니다! 👍
2. Java: 기능 추가하기
UserService.java
파일을 첨부합니다)첨부한 자바 코드(UserService.java)에 사용자 이메일로 정보를 찾는 기능을 추가하고 싶어. 어떻게 해야 할까?
findByEmail(String email)
메소드를 추가하면 됩니다. 사용자 목록을 순회하며 이메일이 일치하는 사용자를 반환하는 코드를 작성해 보세요. 예를 들어... (코드 예시 제공)
UserService.java
에 AI가 제안한 코드를 추가하고 저장합니다.)좋아, 방금 네가 알려준 대로 코드를 추가했어. 내가 작성한 코드가 올바른지, 예외 처리는 필요한지 검토해줘.
UserService.java
파일을 확인했습니다. 코드는 잘 작성되었지만, 사용자를 찾지 못했을 경우를 대비해 Optional<User>
을 반환하거나 UserNotFoundException
같은 커스텀 예외를 던지는 것을 고려해 보세요.
3. PHP: 데이터베이스 연결 로직 개선
db_connect.php
파일을 첨부합니다)첨부한 PHP 데이터베이스 연결 코드(db_connect.php)를 봐줘. 보안에 취약한 부분이 있을까?
.env
파일을 사용하여 환경 변수로 관리하고, PDO의 예외 처리 모드를 사용하는 것이 좋습니다.
db_connect.php
파일을 수정하고 저장합니다.)조언 고마워. 방금 PDO를 사용하고 예외 처리 코드를 추가했어. 이 코드가 더 안전한지 확인해줘.
db_connect.php
파일을 확인했습니다. PDO와 try-catch
블록을 사용하여 훨씬 안전해졌네요! 이제 데이터베이스 연결 실패 시에도 민감한 정보가 노출되지 않을 겁니다. 잘하셨어요!
다른 도구와의 차이점
PREDAQ의 실시간 분석 기능은 기존 방식들의 장점을 결합하고 단점을 보완했습니다.
구분 | 일반 대화형 AI | 일반 코드 어시스턴트 | PREDAQ (실시간 분석 + 컨텍스트) |
---|---|---|---|
작업 방식 | 코드 복사 & 붙여넣기 반복 | 파일 단위 분석, 제한된 프로젝트 뷰 | 실시간 파일 연동, 재입력 불필요 |
컨텍스트 활용 | 이전 대화 내용만 기억 | 주로 현재 파일과 열린 파일들 | 방대한 외부 컨텍스트(기획서, 요구사항 등)와 연계 가능 |
상호작용 | 단절적, 수동적 | 자동 완성, 간단한 리팩토링 제안 | 기획 의도 파악, 복합적 문제 해결 등 심층적 대화 가능 |
'로컬 파일 실시간 분석' vs '컨텍스트' 기능 비교
두 기능은 상호 보완적이며, 목적에 맞게 함께 사용하면 시너지가 극대화됩니다.
기능 | 로컬 파일 실시간 분석 | 컨텍스트 |
---|---|---|
용도 | 실시간 업데이트 및 실행 대상 (Live Object) | 정적 텍스트 참고 자료 (Reference Book) |
핵심 역할 | 코드 작성, 디버깅, 리팩토링 등 동적인 개발 작업 | AI의 역할, 말투, 전문 지식, 규칙 등 정적인 배경 설정 |
예시 | "첨부된 main.py 를 수정했으니, 다시 실행해보고 결과를 알려줘." |
"너는 Python 전문가야. 'PEP 8' 스타일 가이드를 엄격히 따라서 리뷰해줘." |
장점 | 끊김 없는 개발 경험, 빠른 피드백 루프 | 일관된 답변 품질 유지, 반복 작업 최소화 |
최고의 조합!
'컨텍스트'로 "너는 우리 회사의 백엔드 개발 가이드라인을 따라야 해"라고 설정한 뒤, '로컬 파일 실시간 분석'으로 api.js
파일을 첨부하고 "이 코드에 우리 가이드라인을 적용해서 리팩토링해줘"라고 요청하면, PREDAQ은 두 기능을 모두 활용하여 최고의 결과물을 만들어낼 것입니다.
컨텍스트 (Context): AI에게 똑똑한 길잡이를!
왜 컨텍스트가 중요할까요?
- 맞춤형 답변 유도: AI가 내 의도와 상황을 더 잘 이해하고, 내가 원하는 방향으로 답변하도록 이끌 수 있어요.
- 전문성 부여: 특정 분야의 지식이나 회사 내부 용어 등을 컨텍스트로 제공하면, AI가 그 분야 전문가처럼 답변하게 만들 수 있죠.
- 시간 절약: 반복적인 설명이나 지시사항을 컨텍스트에 저장해두면, 매번 입력할 필요 없이 AI가 알아서 적용해줘요.
컨텍스트 활용법 A to Z
- AI 역할 & 말투 설정: "너는 깐깐한 코드 리뷰어야. 내 코드의 문제점을 날카롭게 지적해줘."
- 전문 지식 주입: 특정 기술 문서 내용을 컨텍스트로 주고, "이 문서를 기반으로 X 기술의 미래 전망을 설명해줘."
- 작업 지침 명시: 보고서 템플릿이나 글쓰기 스타일 가이드를 컨텍스트로 제공하고, "이 가이드라인에 맞춰 블로그 글 초안을 작성해줘."
- 개인화된 정보 활용: 내 업무 스타일, 자주 사용하는 용어, 이전 프로젝트 결과 등을 컨텍스트로 넣어두면 AI가 나를 더 잘 이해해요.
PREDAQ 컨텍스트만의 특별함!
- 질문마다 실시간 변경: 대화 중에도 다음 질문에 맞춰 최적의 컨텍스트로 즉시 바꿀 수 있어요. 코드 분석 후 바로 마케팅 문구 작성 요청 시, 관련 컨텍스트로 스위칭!
- 여러 컨텍스트 동시 조합: '회사 용어집' + '프로젝트 요구사항' + '고객 페르소나' 컨텍스트를 동시에 적용하면? 더욱 정교하고 상황에 맞는 답변을 얻을 수 있죠! 🧩
- 체계적인 폴더 관리: 수많은 컨텍스트도 주제별, 프로젝트별 폴더로 깔끔하게 정리하고, 필요할 때 드래그 앤 드롭으로 쉽게 찾아 쓸 수 있어요. 📂
컨텍스트 활용 시나리오: 우주 탐사 보고서 작성
- 컨텍스트 1 (역할): "너는 NASA의 수석 과학자 '엘라'야. 전문적이고 객관적인 어투를 사용해줘."
- 컨텍스트 2 (데이터): (최근 화성 탐사 데이터 요약본 텍스트 파일)
- 컨텍스트 3 (보고서 양식): (NASA 공식 보고서 템플릿 및 주요 항목 설명)
- 질문: "엘라 박사, 첨부된 화성 탐사 데이터를 바탕으로 NASA 보고서 양식에 맞춰 초기 발견 사항을 요약해줘."
이렇게 여러 컨텍스트를 조합하면, AI가 정말 그럴듯한 보고서를 작성해 줄 거예요! 📄
구분 | 컨텍스트 활용 (PREDAQ 방식) | 파인튜닝 |
---|---|---|
개념 | 대화 시마다 AI에게 참고자료(정보, 지침)를 제공하는 '오픈북 시험' 방식 📖 | AI 모델 자체를 특정 데이터로 '추가 학습' 시키는 방식 🏋️️ |
필요 자원 | 특별한 기술, 데이터, 자원 거의 불필요. 아이디어만 있으면 OK! ✅ | 전문 지식, 대량의 학습 데이터, 고성능 컴퓨팅 자원 필요 💸 |
적용 시점 | 즉시! 컨텍스트만 만들면 바로 사용 가능 ⚡ | 모델 학습에 시간 소요 (수 시간 ~ 수 일) ⏳ |
유연성 | 매우 높음! 대화마다, 질문마다 컨텍스트 변경/조합 가능 🤸 | 낮음. 한번 학습된 내용을 바꾸려면 재학습 필요 🧱 |
주요 장점 | 쉽고 빠르게 AI 커스터마이징, 다양한 상황에 즉시 대응 | 매우 특화된 작업에 높은 성능, AI의 근본적인 말투/지식 변화 |
대화기록 (History): AI와의 모든 순간을 타임머신처럼!
대화기록 기본 사용법
- 저장하기: 현재 대화가 만족스럽거나 중요한 내용을 담고 있다면, 하단의 '기록 제목'을 입력하고 '저장' 버튼을 누르세요. 현재 대화 내용, 적용된 컨텍스트, AI의 기억까지 모두 저장돼요.
- 불러오기: 왼쪽 사이드바 '대화기록' 목록에서 저장된 기록을 클릭하면, 그 시점으로 모든 것이 복원됩니다!
중요! 이전 기록을 불러오면 현재 진행 중이던 대화 내용은 사라지니 주의하세요!
- 폴더로 정리: 주제별, 프로젝트별로 폴더를 만들어 대화기록을 체계적으로 관리할 수 있어요. 컨텍스트 관리와 똑같아요! 📂
PREDAQ 대화기록, 뭐가 특별할까요?
다른 챗봇들은 한번 대화가 꼬이면 처음부터 다시 시작해야 하는 경우가 많죠? PREDAQ은 달라요!- 특정 시점으로 완벽 복원 (게임 세이브처럼!): 프롬프트를 잘못 입력했거나, AI 답변이 산으로 갔나요? 걱정 마세요! 저장해둔 특정 시점으로 돌아가면 모든 것이 해결됩니다. ⏱️
- 컨텍스트/모델 바꿔서 이어가기: 저장된 대화를 불러온 후, "아, 이 컨텍스트를 추가했어야 했는데!" 또는 "이 질문은 더 강력한 모델로 다시 해볼까?" 싶을 때가 있죠? 문제없어요! 새 컨텍스트를 추가하거나 모델을 변경한 후 대화를 바로 이어나갈 수 있습니다. AI가 새로운 정보를 바탕으로 더 나은 답변을 줄 거예요. ✨🤖
- 다양한 조건으로 실험: 동일한 대화 기록을 불러와서 컨텍스트, 모델, Temperature 설정을 바꿔가며 어떤 결과가 나오는지 비교 실험해볼 수 있어요. 최적의 조합을 찾는 데 아주 유용하죠! 🧪
대화기록 활용 시나리오: 최적의 마케팅 문구 찾기
- 초기 대화: '신제품 A'에 대한 기본 정보를 AI에게 주고, 몇 가지 마케팅 문구를 받아본 후 대화 저장 (이름: "신제품A 마케팅 v1").
- 실험 1 (컨텍스트 변경): "신제품A 마케팅 v1" 기록 로드 → 'MZ세대 타겟' 컨텍스트 추가 → AI에게 다시 문구 요청.
- 실험 2 (모델 변경): "신제품A 마케팅 v1" 기록 로드 → 모델을 gemini-flash에서 gemini-pro로 변경 → AI에게 다시 문구 요청.
- 결과 비교: 각 실험 결과를 비교하여 가장 효과적인 문구와 설정 조합을 찾아냅니다.
프롬프트 자동 작성: AI의 잠재력을 깨우는 마법 지팡이 🪄
물론이죠! 바로 그럴 때를 위해 PREDAQ의 프롬프트 자동 작성 기능이 준비되어 있습니다. 사용자가 입력한 초안과 이전 대화 내용을 바탕으로, AI가 더 효과적인 프롬프트를 제안해주는 기능이에요. ✨
채팅 입력창 하단의 ✨A1과 ✨A2 버튼을 눌러보세요!
A1 vs A2: 어떤 버튼을 사용해야 할까요?
두 버튼은 서로 다른 목적을 가지고 있어, 상황에 맞게 사용하면 좋습니다.
버튼 | 목표 | 이럴 때 사용하세요! | 기대 효과 |
---|---|---|---|
✨A1 (논점에 충실) | 명확하고 간결한 질문 | 사용자의 의도가 명확하지만, 질문을 더 깔끔하게 다듬고 싶을 때 | 군더더기 없는 핵심적인 답변 유도 |
✨A2 (확장성 있게) | 심층적이고 창의적인 탐색 | 아이디어를 확장하거나, 전문가의 새로운 관점이 필요할 때 | 예상치 못한 통찰이나 새로운 아이디어 발견 |
사용 예시: 간단한 질문을 전문가 수준으로!
파이썬으로 웹 스크래핑하는 법 알려줘.
[AI 추천 프롬프트]
Python의 `requests`와 `BeautifulSoup` 라이브러리를 사용하여, 특정 뉴스 사이트의 최신 기사 제목과 링크를 스크래핑하는 전체 코드 예제를 작성해 줘. 스크래핑 시 발생할 수 있는 일반적인 예외(HTTP 오류, 타임아웃 등) 처리 방법을 포함하고, 스크래핑한 데이터를 CSV 파일로 저장하는 방법까지 알려주면 좋겠어.
네, 알겠습니다. Python을 이용한 웹 스크래핑 전체 과정에 대해 상세한 코드와 함께 설명해 드릴게요. 먼저, 필요한 라이브러리를 설치하는 것부터 시작하겠습니다...
(이후 매우 상세하고 전문적인 답변이 이어집니다)핵심 포인트!
프롬프트 자동 작성 기능은 단순히 오타를 수정하는 것을 넘어, 사용자의 숨은 의도를 파악하고 질문의 수준을 한 단계 높여줍니다. 이를 통해 AI의 잠재력을 최대한으로 끌어낼 수 있습니다.
토큰 (Token)과 f-token: AI 사용의 기본 단위 이해하기
네, '토큰(Token)'은 AI를 이해하는 데 아주 중요한 열쇠 중 하나예요! 🔑
AI는 우리가 입력하는 글자를 그대로 한 자 한 자 읽는 게 아니에요. 대신, 텍스트를 '토큰'이라는 작은 의미 단위로 잘라서 처리해요. 예를 들어, "안녕하세요, 반갑습니다!" 라는 문장이 있다면, 모델에 따라 ["안녕", "하세요", ",", "반갑", "습니다", "!"] 처럼 여러 개의 토큰으로 나뉠 수 있죠. (실제 토큰화 방식은 모델이나 언어에 따라 더 복잡하고 다양해요!)
왜 토큰이 중요할까요?
- AI 작업량 측정: AI가 처리하는 모든 입력(여러분의 질문 + 컨텍스트)과 출력(AI의 답변)의 양은 바로 이 '토큰 수'를 기준으로 계산돼요.
- 비용 산정 기준: 대부분의 AI 서비스는 이 '토큰 사용량'에 따라 비용을 책정합니다. 많이 쓸수록 비용이 올라가는 구조죠.
PREDAQ의 f-token 시스템
PREDAQ에서는 자체적인 토큰 단위인 f-token 🪙을 사용해요. 이것은 Google의 gemini-flash
모델의 입력 토큰 1개 비용을 기준으로 하며, 더 성능이 좋거나 최신 모델을 사용할수록 더 많은 f-token이 소모됩니다. 이는 각 AI 모델별 실제 API 비용 차이를 반영한 것이랍니다.
💰 모델별 f-token 소모량 (예시, 변동 가능)
- gemini-2.5-pro: 입력 1토큰 당 12.5 ~ 25 f-token (프롬프트 크기에 따라 변동), 출력 1토큰 당 100 ~ 150 f-token
- gemini-2.5-flash: 입력 1토큰 당 1.5 f-token, 출력 1토큰 당 6 f-token (사고/추론 기능 사용 시 35 f-token)
f-token 충전하기
매일 제공되는 무료 f-token으로도 부족하시다면, 언제든지 추가로 충전할 수 있습니다. PREDAQ은 글로벌 결제 솔루션인 PayPal을 통해 안전하고 간편한 결제 시스템을 제공합니다. PayPal 계정이 없더라도, 대부분의 해외 결제가 가능한 신용카드로 손쉽게 f-token을 충전할 수 있습니다. 💳
안전한 결제: 모든 결제 정보는 PayPal을 통해 직접 처리되며, PREDAQ 서버에는 어떠한 카드 정보도 저장되지 않아 안심하고 이용할 수 있습니다.
하지만 너무 걱정하지 마세요! PREDAQ은 매일 넉넉한 양의 f-token을 무료로 제공해드리고 있어요! 🎉 그러니 부담 없이 다양한 기능을 사용해보시면서, 컨텍스트의 길이, 질문과 답변의 길이, 그리고 모델 선택 등을 어떻게 조절해야 f-token을 효율적으로 사용할 수 있을지 감을 잡아보세요! (참고: 총 사용 토큰량이 10,000 이상일 경우, AI 답변 마지막 줄에 사용량이 표시됩니다.)
모델 (Model): 작업에 맞는 최적의 두뇌 선택하기
gemini-flash
, gemini-pro
같은 여러 AI 모델이 있던데, 뭐가 다르고 언제 어떤 걸 써야 할지 잘 모르겠어요. 🧠🤯
모델 선택, 무엇을 고려해야 할까요?
단순히 '더 똑똑한 모델'을 고르는 것만이 능사는 아니에요. 다음 요소들을 종합적으로 고려해야 합니다:- 🧠 성능 및 추론 능력: 복잡하고 미묘한 작업, 깊이 있는 분석이 필요할수록 고성능 모델이 유리해요.
- 📚 학습 데이터 (최신성): 모델은 특정 시점까지의 데이터로 학습돼요. 하지만 걱정 마세요! PREDAQ의 'Search' 기능을 켜면 AI가 실시간 웹 검색으로 최신 정보를 보완해준답니다! (Search 기능은 다음 섹션에서 자세히!)
- ⚡ 응답 속도: 빠른 답변이 중요한 간단한 작업에는 속도가 빠른 모델이 좋겠죠?
- 💰 비용 (f-token 소모량): 고성능 모델일수록 더 많은 f-token을 사용해요. 예산과 작업의 중요도를 고려해야 해요.
Gemini 모델들의 강력한 장점: 방대한 출력 한도! 📜
Google Gemini 모델들은 특히 한 번에 생성할 수 있는 답변의 양(출력 토큰 한도)이 매우 크다는 엄청난 장점을 가지고 있어요! 예를 들어,gemini-2.5-pro
나 gemini-2.5-flash
모델은 무려 65,536 토큰까지 한 번에 출력할 수 있답니다. 이게 어느 정도냐면, 아주 긴 보고서나 소설 한 챕터, 심지어 수천 줄짜리 복잡한 코드도 중간에 끊김 없이 한 번에 생성하거나 분석할 수 있다는 뜻이에요! 🚀
모델 선택 가이드라인 (예시):
- 🚀
gemini-2.5-flash
(또는 유사한 경량/고속 모델):- 추천 작업: 간단한 질의응답, 빠른 정보 요약, 이메일 초안 작성, 기본적인 코드 스니펫 생성, 아이디어 브레인스토밍, 가벼운 번역 등.
- 장점: 매우 빠른 응답 속도, 낮은 f-token 소모량으로 경제적! 일상적인 대부분의 작업에 적합해요.
- 💎
gemini-2.5-pro
(또는 유사한 고성능 모델):- 추천 작업: 복잡한 문제 해결, 심층적인 데이터 분석, 전문적인 글쓰기 (보고서, 논문 초안), 긴 코드 생성 및 상세 리뷰, 창의적인 스토리텔링, 고품질 번역 등.
- 장점: 뛰어난 추론 능력과 이해력, 복잡하고 긴 컨텍스트 처리 능력. 중요한 작업이나 높은 품질의 결과물이 필요할 때 선택하세요.
팁! 처음에는 빠른 모델(예: gemini-flash
)로 시작해서 작업의 윤곽을 잡고, 더 깊이 있는 결과가 필요할 때 고성능 모델(예: gemini-pro
)로 전환하거나, 대화기록을 저장한 후 다른 모델로 이어가는 것도 좋은 전략이에요!
Search & Temperature: AI 답변의 품질과 창의성 조절하기
Search 기능: AI에게 최신 웹 정보를 실시간으로! 🌐
AI 모델은 특정 시점까지의 데이터로 학습되기 때문에, 아주 최신의 정보나 사건에 대해서는 잘 모를 수 있어요. 바로 이때 'Search' 기능이 빛을 발합니다! ✨- 작동 방식: Search 기능을 켜면, AI가 답변을 생성하기 전에 사용자의 질문과 관련된 내용을 Google 검색을 통해 실시간으로 찾아봐요. 그리고 그 검색 결과를 바탕으로 답변을 생성합니다.
- 장점:
- 최신 정보 반영: 방금 발표된 뉴스, 최신 기술 동향, 실시간 데이터 등 AI가 원래는 몰랐을 정보까지 답변에 포함시킬 수 있어요.
- 정확성 및 신뢰도 향상: 웹 검색 결과를 교차 확인하며 답변을 생성하므로, AI가 잘못된 정보를 말하는 '환각(Hallucination)' 현상을 줄이는 데 도움이 돼요.
Search 기능 활용 예시:
- "오늘 원/달러 환율이랑 주요 경제 뉴스 요약해줘." (Search ON 켜고 질문)
- "최근 가장 인기 있는 프로그래밍 언어 트렌드는 뭐야? 관련 자료도 찾아줘." (Search ON)
- "새로 출시된 스마트폰 모델 '갤럭티카 S99'의 사용자 반응 좀 알려줘." (Search ON)
Temperature 설정: 답변의 창의성 vs. 일관성 조절하기 🔥💧
'Temperature'는 AI 답변의 '무작위성' 또는 '창의성' 수준을 조절하는 값이에요. 온도를 높이면 더 뜨겁고(?) 창의적인 답변이, 낮추면 더 차분하고 일관된 답변이 나온다고 생각하시면 쉬워요.Temperature 값 | 답변 성향 | 추천 작업 |
---|---|---|
낮은 값 (예: 0.1 ~ 0.4) | 더 결정적, 사실 기반, 일관성 높음, 예측 가능 | 정보 요약, 기술 문서 번역, 코드 생성/설명, 정해진 형식의 글쓰기 등 정확성이 중요할 때 |
중간 값 (예: 0.5 ~ 0.7) | 창의성과 일관성의 적절한 균형 | 일반적인 대화, 이메일 초안 작성, 블로그 포스팅, 아이디어 구체화 등 대부분의 작업 |
높은 값 (예: 0.8 ~ 1.0 이상) | 더 창의적, 다양함, 예측 불가능, 새로운 아이디어 | 브레인스토밍, 소설/시 창작, 마케팅 문구 생성, 새로운 관점의 아이디어 구상 등 창의성이 중요할 때 |
이렇게 활용해보세요!
예를 들어, 역사적 사실에 대한 요약을 원한다면 Temperature를 0.2 정도로 낮게 설정하고, 새로운 판타지 소설의 줄거리 아이디어를 얻고 싶다면 0.9 이상으로 높게 설정해보세요. 같은 질문이라도 Temperature 값에 따라 전혀 다른 느낌의 답변을 얻을 수 있답니다!
이 도움말은 관리자의 프롬프트에 따라 gemini-pro 모델이 대화내용 및 html, css를 수정 및 작성하였습니다.