OpenAI 의 API인 ChatGPT 를 해당 웹서비스에 적용하여, 응답 내용에 기반하여 개인의 선호에 근접한 라이트노벨을 추천 하는 챗봇 서비스입니다.
[참고] 아래 workflow image는 예고 없이 변경 될 수 있습니다.
Vite(reactjs)기반의 client 에서, Django 서버 (handling openAI)와 송수신(I/O)을 해서, 개인 맞춤형 서비스. 이 과정에서 User 기능 및 DB에 대화내용을 기록하는 것.
1차 개발 완료 후, 고도화 작업 단계입니다.
리팩토링 작업 후, 업데이트 예정입니다.
리팩토링 작업 후, 업데이트 예정입니다.
업데이트 예정입니다.
- pycurl 을 사용하지 않은 이유.
- 토큰과 소셜 인증 구성 과정 기록 - (1)
celery worker 로 적용을 고려할 초기 기획단계에서는, GPT-3 의 성능이 분명하게 응답에 있어 다소 느린 문제가 있었습니다. 그러나 현 celery worker 까지의 적용 및 할당 시점에서는, openAI 의 API 서버 자체적으로 성능이 개선되어 지금은 무겁지 않게 되었습니다.
그럼에도, 기획 단계의 구상대로 구성을 진행하여 비교해 보았습니다. 대상은, response 에 대한 응답입니다.
- celery 적용 전 대비, 적용 이후에는 410m/s 수준으로, 유의미하게 개선되었습니다. (약 50% 성능 향상)
- 테스트 조건 : 'predefined prompt 적용 이 후, 복합적으로 3가지 문항에 맞게 질문'