OpenAI·Gemini·Claude·Codex 계열 인터페이스를 하나의 프록시 서버로 묶어 주는 오픈소스 프로젝트입니다.
여러 AI CLI와 계정을 함께 다루는 흐름에 초점을 맞추고 있어, 개발 환경을 조금 더 유연하게 정리하고 싶은 사람에게 특히 눈에 들어오는 도구입니다.

 

CLIProxyAPI는 한 줄로 말하면, 다양한 AI 코딩용 CLI를 공통된 API 형태로 연결해 주는 프록시 서버입니다.

README에서는 OpenAI·Gemini·Claude·Codex 호환 API 인터페이스를 제공한다고 소개하고 있고, OpenAI Codex와 Claude Code는 OAuth 로그인도 지원합니다. 덕분에 특정 서비스 하나에 맞춰 사용 방식을 바꾸기보다, 익숙한 클라이언트나 SDK를 유지한 채 여러 백엔드를 연결하는 방향에 더 가깝습니다.

 

기능 구성을 보면 이 프로젝트의 성격이 더 선명해집니다. 스트리밍과 비스트리밍 응답을 모두 지원하고, 함수 호출과 도구 사용, 텍스트와 이미지 입력 같은 멀티모달 처리까지 포함합니다. 여기에 Gemini·OpenAI·Claude 계정을 여러 개 연결해 라운드로빈 방식으로 부하를 분산하는 기능도 제공하며, OpenAI 호환 업스트림 제공자를 설정으로 붙일 수 있게 설계되어 있습니다. 단순히 “요청을 전달하는 프록시”라기보다, 여러 모델과 계정을 실제 운영 환경에서 다루기 위한 중간 레이어에 가깝다는 인상을 줍니다.

 

활용 장면도 비교적 분명합니다. 예를 들어 한 개발자가 Claude Code, Gemini CLI, Codex 계열 도구를 프로젝트나 상황에 따라 번갈아 쓰고 있다면, CLIProxyAPI를 통해 인증과 라우팅을 한곳에서 관리하는 흐름을 생각해볼 수 있습니다. README에는 Amp CLI와 IDE 확장 지원도 별도로 정리되어 있고, 모델 매핑, 자동 라우팅, 보안 중심의 localhost 전용 관리 엔드포인트 같은 설명도 포함돼 있어, 개인 실험용을 넘어 실제 개발 워크플로에 맞춘 설계 의도가 읽힙니다.

 

비슷한 성격의 프록시나 릴레이 도구와 비교했을 때 눈에 띄는 점은 “호환성의 폭”과 “운영 편의성”입니다. 하나의 모델 제공사만 다루는 도구가 아니라 OpenAI·Gemini·Claude·Codex 계열을 함께 묶고, OAuth 로그인, 다중 계정 로드밸런싱, SDK 문서, Management API, Amp 연동까지 함께 제시합니다. 또 README에는 이 프로젝트를 바탕으로 만든 메뉴바 앱, 대시보드, VSCode 확장, 쿼터 모니터링 도구 등 여러 파생 프로젝트도 소개되어 있어서, 단일 스크립트 수준을 넘어 하나의 생태계처럼 확장되고 있다는 점도 흥미롭습니다.

 

그래서 이 프로젝트는 여러 AI 코딩 도구를 함께 쓰는 개발자, 계정 운영이나 인증 방식을 일관되게 묶고 싶은 사용자, 혹은 OpenAI 호환 인터페이스를 기준으로 다양한 백엔드를 연결하고 싶은 팀에게 특히 잘 맞아 보입니다. 반대로 아주 단순하게 한 서비스만 호출하면 되는 경우라면 다소 큰 구성처럼 느껴질 수 있지만, 여러 공급자와 모델을 유연하게 연결해야 하는 순간에는 장점이 분명해집니다. 

 

정리하면 CLIProxyAPI는 “여러 AI CLI를 하나의 공통 API 계층으로 정리해 주는 오픈소스 프록시”라는 점에서 가치가 분명한 프로젝트입니다. 지원 범위가 넓고, 다중 계정과 OAuth, 라우팅과 호환성까지 함께 다루기 때문에, AI 코딩 도구를 본격적으로 쓰는 사람일수록 활용도가 커질 만한 레포지토리입니다. 

 

https://github.com/router-for-me/CLIProxyAPI

 

GitHub - router-for-me/CLIProxyAPI: Wrap Gemini CLI, Antigravity, ChatGPT Codex, Claude Code as an OpenAI/Gemini/Claude/Codex co

Wrap Gemini CLI, Antigravity, ChatGPT Codex, Claude Code as an OpenAI/Gemini/Claude/Codex compatible API service, allowing you to enjoy the free Gemini 2.5 Pro, GPT 5, Claude model through API - ro...

github.com

 

 
반응형

 

 

Hermes Agent는 한 번 쓰고 끝나는 챗봇보다, 오래 운영할수록 기억과 스킬이 쌓이는 “운영형 AI 에이전트”에 더 가깝습니다.


CLI와 텔레그램·슬랙 같은 메시징 채널을 함께 쓰면서, 원하는 모델을 붙여 자동화와 도구 실행을 이어갈 수 있다는 점이 핵심입니다.

 

공식 문서 기준으로 멀티 플랫폼 게이트웨이, 지속 메모리, 스킬 시스템, MCP 연동, 예약 실행까지 폭넓게 갖춘 오픈소스 프로젝트입니다.

 

Hermes Agent는 Nous Research가 공개한 오픈소스 AI 에이전트 프로젝트입니다. 공식 소개에서 가장 앞에 내세우는 개념은 “self-improving”, 즉 사용하면서 더 나아지는 구조입니다. 단순히 질문에 답하는 챗봇이 아니라, 경험에서 스킬을 만들고, 이전 대화를 다시 찾아 활용하며, 세션이 바뀌어도 사용자를 점점 더 깊이 이해하는 방향을 지향한다는 점이 인상적입니다.

 

핵심 기능을 보면 이 서비스의 성격이 더 분명해집니다. 원하는 LLM 제공자를 붙이고 모델을 바꿀 수 있어 특정 API에 묶이지 않는 구조를 지향하고, 터미널 인터페이스에서는 멀티라인 입력, 슬래시 명령어 자동완성, 대화 기록, 작업 중단과 재지시 같은 사용성을 제공합니다. 여기에 지속 메모리, 사용자 프로필, 스킬 시스템, 컨텍스트 파일, MCP 연동, 수십 개의 내장 도구까지 문서화되어 있어 “답변을 잘하는 모델”보다 “계속 일하게 만드는 실행 환경”에 더 가까운 느낌을 줍니다.

 

실제 활용 장면도 꽤 선명합니다. CLI에서 바로 대화를 시작할 수도 있고, gateway를 실행하면 텔레그램·디스코드·슬랙·왓츠앱·시그널 같은 채널에서 같은 에이전트와 이어서 대화할 수 있습니다. 여기에 내장 크론 스케줄러를 붙이면 일일 리포트, 야간 백업, 주간 점검 같은 작업을 자연어 기반 자동화로 돌릴 수 있고, 필요할 때는 보조 에이전트를 따로 띄워 복잡한 일을 병렬로 나누는 방식도 가능합니다. 공식 설명에 나온 “클라우드 VM에서 일시키고 메신저로 결과를 받는” 시나리오가 Hermes Agent의 성격을 잘 보여줍니다.

 

비슷한 AI 서비스와 비교했을 때 Hermes Agent가 눈에 띄는 이유는, 스스로를 IDE에 묶인 코딩 보조 도구나 단일 API 래퍼처럼 소개하지 않는다는 점입니다. 공식 문서는 오히려 6가지 터미널 백엔드, 15개 이상 플랫폼 지원, 47개 내장 도구, 오픈 표준 스킬 호환, MCP 서버 연결, 보안 관련 문서까지 함께 제시하며 “장기 실행형 에이전트 런타임”에 가까운 그림을 보여줍니다. 그래서 이 프로젝트는 채팅창 하나를 똑똑하게 만드는 도구라기보다, 여러 환경에서 오래 굴릴 수 있는 AI 작업 기반을 만들고 싶은 사람에게 더 매력적으로 보입니다.

 

추천 대상도 비교적 분명합니다. 개인 개발자나 AI 파워유저, 반복 업무를 자동화하려는 1인 운영자, 메신저와 CLI를 오가며 같은 에이전트를 계속 키우고 싶은 팀에게 특히 잘 맞아 보입니다. 반대로 가볍게 몇 번 질문하고 끝내는 용도라면 다소 크고 복합적으로 느껴질 수 있습니다. 설치 안내는 Linux, macOS, WSL2, Android(Termux)를 중심으로 제공되고, Windows는 네이티브 대신 WSL2 사용이 안내되어 있다는 점도 함께 참고하면 좋겠습니다.

 

정리하면 Hermes Agent는 “AI와 대화한다”보다 “AI를 운영한다”는 표현이 더 잘 어울리는 프로젝트입니다. 메모리, 스킬, 멀티 채널, 자동화, 모델 선택 자유도까지 한데 묶어두었고, 공식 문서 범위도 넓습니다. GitHub 저장소 페이지에는 MIT 라이선스, 2026년 4월 16일의 최신 릴리스, 10.5만 스타와 535명의 기여자가 표시되어 있어, 실험적인 데모보다 빠르게 성장하는 오픈소스 생태계로 보는 편이 더 자연스럽습니다. 오래 함께 일할 AI 에이전트를 찾고 있다면 한 번쯤 자세히 살펴볼 만한 프로젝트입니다.

 

 

반응형

Graphify는 Claude Code, Codex, Cursor, Gemini CLI, GitHub Copilot CLI 등에서 사용할 수 있는 오픈소스 AI 스킬로, 프로젝트 폴더 안의 코드·문서·PDF·스크린샷·이미지·오디오·비디오를 읽어 하나의 지식 그래프로 정리해줍니다. 이를 통해 복잡한 코드베이스의 구조와 아키텍처 의도를 더 빠르게 파악할 수 있습니다.

 

또한 AST 기반 구조 분석과 멀티모달 정보 추출을 결합해 인터랙티브 HTML 그래프, JSON 파일, 분석 리포트를 생성하며, 관계를 EXTRACTED, INFERRED, AMBIGUOUS로 구분해 “직접 확인된 정보”와 “추론된 정보”를 명확히 보여주는 점이 인상적입니다.

 

설치는 Python 3.10+ 환경에서 가능하며, 공식 PyPI 패키지명은 graphifyy이고 실행 명령은 graphify입니다.

 

https://github.com/safishamsi/graphify

 

GitHub - safishamsi/graphify: AI coding assistant skill (Claude Code, Codex, OpenCode, Cursor, Gemini CLI, GitHub Copilot CLI, O

AI coding assistant skill (Claude Code, Codex, OpenCode, Cursor, Gemini CLI, GitHub Copilot CLI, OpenClaw, Factory Droid, Trae, Google Antigravity). Turn any folder of code, docs, papers, images, o...

github.com

 

 
반응형

 

 

gemma-tuner-multimodal은 Apple Silicon 환경에서 Gemma 모델을 텍스트, 이미지, 오디오 데이터로 파인튜닝할 수 있도록 만든 오픈소스 프로젝트입니다. CUDA나 NVIDIA GPU 없이도 동작하며, LoRA 기반 학습을 지원하는 것이 특징입니다.

 

이 저장소는 텍스트 전용 학습뿐 아니라 이미지+텍스트, 오디오+텍스트 같은 멀티모달 학습까지 지원합니다. 또한 GCS나 BigQuery에서 데이터를 스트리밍해 대용량 데이터셋도 로컬 저장공간 부담 없이 활용할 수 있도록 설계되었습니다.

 

실시간 학습 시각화 기능도 제공해 loss curve, attention heatmap, 메모리 사용량 등을 브라우저에서 바로 확인할 수 있어 실험 과정을 직관적으로 살펴볼 수 있습니다. Gemma 4와 Gemma 3n 계열 모델을 대상으로, 맥 기반 로컬 AI 개발 환경을 구축하려는 분들에게 특히 눈에 띄는 프로젝트입니다.

 

https://github.com/mattmireles/gemma-tuner-multimodal

 

GitHub - mattmireles/gemma-tuner-multimodal: Fine-tune Gemma 4 and 3n with audio, images and text on Apple Silicon, using PyTorc

Fine-tune Gemma 4 and 3n with audio, images and text on Apple Silicon, using PyTorch and Metal Performance Shaders. - mattmireles/gemma-tuner-multimodal

github.com

 

반응형

Paperclip은 여러 AI 에이전트를 한곳에서 관리할 수 있게 만든 오픈소스 프로젝트입니다. Node.js 서버와 React UI 기반으로 동작하며, 목표 설정부터 역할 배치, 예산 관리, 작업 추적까지 한 번에 다룰 수 있는 것이 특징입니다.

 

이 프로젝트는 단순한 챗봇이나 업무 자동화 도구가 아니라, AI 에이전트 팀을 “회사”처럼 운영하는 데 초점을 맞추고 있습니다. 조직도, 거버넌스, 목표 정렬, 티켓 시스템, 감사 로그, 비용 통제 같은 기능을 통해 여러 에이전트의 협업을 체계적으로 관리할 수 있습니다.

 

특히 Claude Code, Codex, Cursor, Bash, HTTP 등 다양한 에이전트나 런타임을 연결할 수 있고, 정해진 주기로 작업을 수행하는 하트비트 방식도 지원합니다. 또 월별 예산 제한을 설정해 토큰 비용이 과도하게 늘어나는 상황을 막을 수 있습니다.

 

Paperclip은 셀프호스팅 방식으로 사용할 수 있으며, 계정 없이도 빠르게 시작할 수 있습니다. 저장소 안내에 따르면 npx paperclipai onboard --yes 명령으로 시작할 수 있고, Node.js 20+와 pnpm 9.15+ 환경이 필요합니다.

 

여러 AI 에이전트를 동시에 운영하거나, 자동화된 AI 팀을 보다 안정적으로 관리하고 싶은 개발자와 스타트업이라면 한 번 살펴볼 만한 프로젝트입니다. 오픈소스 기반이라 확장성과 실험 자유도도 높은 편입니다.

 
 

GitHub - paperclipai/paperclip: Open-source orchestration for zero-human companies

Open-source orchestration for zero-human companies - paperclipai/paperclip

github.com

 

반응형

 

 

MimikaStudio는 Apple Silicon 기반 macOS에서 실행되는 로컬 우선 음성 AI 애플리케이션입니다. 3초 분량의 음성 샘플만으로 보이스 클로닝을 지원하며, 텍스트 음성 변환(TTS), PDF·DOCX·EPUB·Markdown·TXT 문서 읽기, 오디오북 생성 기능을 하나의 앱에서 함께 제공합니다. 또 MLX 기반 Metal 가속에 최적화되어 있고, UI뿐 아니라 MCP·API 경로도 제공해 자동화 활용에도 적합합니다.

 

여기에 Qwen3-TTS, Chatterbox, Kokoro, Supertonic 등 다양한 모델을 통합해 음성 복제와 다국어 TTS를 지원하며, 일부 모델은 한국어도 포함합니다. 현재 배포용 바이너리는 macOS용만 제공되고, 소스 코드는 BSL-1.1 라이선스로 공개되어 있습니다.

 

https://github.com/BoltzmannEntropy/MimikaStudio

 

GitHub - BoltzmannEntropy/MimikaStudio: MimikaStudio - A local-first application for macOS (Apple Silicon) + Agentic MCP Support

MimikaStudio - A local-first application for macOS (Apple Silicon) + Agentic MCP Support - BoltzmannEntropy/MimikaStudio

github.com

 

반응형

 

 

Superpowers는 코딩 에이전트를 위한 에이전트형 스킬 프레임워크이자 소프트웨어 개발 방법론을 담은 오픈소스 프로젝트입니다. 단순히 코드를 바로 작성하는 대신, 먼저 요구사항을 정리하고 설계를 검토한 뒤 구현 계획을 세우는 흐름을 중심에 둡니다.

 

이 저장소의 핵심은 브레인스토밍, 구현 계획 작성, 서브에이전트 기반 개발, 테스트 주도 개발(TDD), 코드 리뷰, 브랜치 마무리까지 이어지는 체계적인 개발 프로세스입니다. 특히 “테스트 먼저, 추측보다 절차, 복잡성 줄이기, 검증 우선” 같은 철학이 분명해 AI 기반 개발 생산성을 높이고 싶은 개발자에게 인상적인 프로젝트입니다.

 

또한 Claude Code, Cursor, Codex, OpenCode, Gemini CLI 등 여러 환경에서 설치할 수 있도록 안내하고 있어, 다양한 AI 개발 도구를 사용하는 팀이나 개인이 참고하기 좋습니다. GitHub에서 많은 관심을 받고 있는 공개 저장소라는 점도 눈에 띕니다.

 

https://github.com/obra/superpowers

 

GitHub - obra/superpowers: An agentic skills framework & software development methodology that works.

An agentic skills framework & software development methodology that works. - obra/superpowers

github.com

 

반응형

 

 

Always-On Memory Agent는 Google ADK와 Gemini 3.1 Flash-Lite를 활용해 만든 상시 실행형 AI 메모리 에이전트입니다. 일반적인 AI 에이전트가 대화가 끝나면 맥락을 잊어버리는 것과 달리, 이 프로젝트는 정보를 계속 읽고 정리하며 연결해 주는 “지속형 기억 레이어”를 목표로 합니다. 특히 벡터 DB나 임베딩 없이, LLM이 직접 구조화된 메모리를 읽고 쓰는 방식이 눈에 띕니다.

 

구성은 꽤 직관적입니다. 먼저 Ingest 단계에서 텍스트, 이미지, 오디오, 비디오, PDF 등 다양한 파일을 받아 핵심 정보와 엔티티, 주제를 추출합니다. 이후 Consolidate 단계에서 일정 주기마다 메모리 간 연결점을 찾고, 관련 내용을 압축해 인사이트를 만듭니다. 마지막으로 Query 단계에서는 누적된 메모리와 통합 결과를 바탕으로 질문에 답변합니다.

 

실무 활용성도 좋습니다. ./inbox 폴더 감시, HTTP API, Streamlit 대시보드를 제공해 파일 업로드, 질의, 메모리 조회·삭제, 수동 통합까지 지원합니다. 저장소 구조를 보면 agent.py, dashboard.py, requirements.txt와 함께 SQLite 기반의 memory.db를 사용해 비교적 가볍게 실행할 수 있도록 설계되어 있습니다.

 

한마디로 정리하면, 이 프로젝트는 “AI가 정보를 저장하는 수준”을 넘어 “스스로 기억을 재구성하는 구조”를 실험해 볼 수 있는 예제입니다. 지속적으로 학습 맥락을 쌓아야 하는 개인 비서, 리서치 봇, 스마트 인박스 같은 서비스에 특히 잘 어울리는 오픈소스라고 볼 수 있습니다.

 

https://github.com/GoogleCloudPlatform/generative-ai/tree/main/gemini/agents/always-on-memory-agent

 

generative-ai/gemini/agents/always-on-memory-agent at main · GoogleCloudPlatform/generative-ai

Sample code and notebooks for Generative AI on Google Cloud, with Gemini on Vertex AI - GoogleCloudPlatform/generative-ai

github.com

 

반응형

+ Recent posts