Hermes Agent는 한 번 쓰고 끝나는 챗봇보다, 오래 운영할수록 기억과 스킬이 쌓이는 “운영형 AI 에이전트”에 더 가깝습니다.


CLI와 텔레그램·슬랙 같은 메시징 채널을 함께 쓰면서, 원하는 모델을 붙여 자동화와 도구 실행을 이어갈 수 있다는 점이 핵심입니다.

 

공식 문서 기준으로 멀티 플랫폼 게이트웨이, 지속 메모리, 스킬 시스템, MCP 연동, 예약 실행까지 폭넓게 갖춘 오픈소스 프로젝트입니다.

 

Hermes Agent는 Nous Research가 공개한 오픈소스 AI 에이전트 프로젝트입니다. 공식 소개에서 가장 앞에 내세우는 개념은 “self-improving”, 즉 사용하면서 더 나아지는 구조입니다. 단순히 질문에 답하는 챗봇이 아니라, 경험에서 스킬을 만들고, 이전 대화를 다시 찾아 활용하며, 세션이 바뀌어도 사용자를 점점 더 깊이 이해하는 방향을 지향한다는 점이 인상적입니다.

 

핵심 기능을 보면 이 서비스의 성격이 더 분명해집니다. 원하는 LLM 제공자를 붙이고 모델을 바꿀 수 있어 특정 API에 묶이지 않는 구조를 지향하고, 터미널 인터페이스에서는 멀티라인 입력, 슬래시 명령어 자동완성, 대화 기록, 작업 중단과 재지시 같은 사용성을 제공합니다. 여기에 지속 메모리, 사용자 프로필, 스킬 시스템, 컨텍스트 파일, MCP 연동, 수십 개의 내장 도구까지 문서화되어 있어 “답변을 잘하는 모델”보다 “계속 일하게 만드는 실행 환경”에 더 가까운 느낌을 줍니다.

 

실제 활용 장면도 꽤 선명합니다. CLI에서 바로 대화를 시작할 수도 있고, gateway를 실행하면 텔레그램·디스코드·슬랙·왓츠앱·시그널 같은 채널에서 같은 에이전트와 이어서 대화할 수 있습니다. 여기에 내장 크론 스케줄러를 붙이면 일일 리포트, 야간 백업, 주간 점검 같은 작업을 자연어 기반 자동화로 돌릴 수 있고, 필요할 때는 보조 에이전트를 따로 띄워 복잡한 일을 병렬로 나누는 방식도 가능합니다. 공식 설명에 나온 “클라우드 VM에서 일시키고 메신저로 결과를 받는” 시나리오가 Hermes Agent의 성격을 잘 보여줍니다.

 

비슷한 AI 서비스와 비교했을 때 Hermes Agent가 눈에 띄는 이유는, 스스로를 IDE에 묶인 코딩 보조 도구나 단일 API 래퍼처럼 소개하지 않는다는 점입니다. 공식 문서는 오히려 6가지 터미널 백엔드, 15개 이상 플랫폼 지원, 47개 내장 도구, 오픈 표준 스킬 호환, MCP 서버 연결, 보안 관련 문서까지 함께 제시하며 “장기 실행형 에이전트 런타임”에 가까운 그림을 보여줍니다. 그래서 이 프로젝트는 채팅창 하나를 똑똑하게 만드는 도구라기보다, 여러 환경에서 오래 굴릴 수 있는 AI 작업 기반을 만들고 싶은 사람에게 더 매력적으로 보입니다.

 

추천 대상도 비교적 분명합니다. 개인 개발자나 AI 파워유저, 반복 업무를 자동화하려는 1인 운영자, 메신저와 CLI를 오가며 같은 에이전트를 계속 키우고 싶은 팀에게 특히 잘 맞아 보입니다. 반대로 가볍게 몇 번 질문하고 끝내는 용도라면 다소 크고 복합적으로 느껴질 수 있습니다. 설치 안내는 Linux, macOS, WSL2, Android(Termux)를 중심으로 제공되고, Windows는 네이티브 대신 WSL2 사용이 안내되어 있다는 점도 함께 참고하면 좋겠습니다.

 

정리하면 Hermes Agent는 “AI와 대화한다”보다 “AI를 운영한다”는 표현이 더 잘 어울리는 프로젝트입니다. 메모리, 스킬, 멀티 채널, 자동화, 모델 선택 자유도까지 한데 묶어두었고, 공식 문서 범위도 넓습니다. GitHub 저장소 페이지에는 MIT 라이선스, 2026년 4월 16일의 최신 릴리스, 10.5만 스타와 535명의 기여자가 표시되어 있어, 실험적인 데모보다 빠르게 성장하는 오픈소스 생태계로 보는 편이 더 자연스럽습니다. 오래 함께 일할 AI 에이전트를 찾고 있다면 한 번쯤 자세히 살펴볼 만한 프로젝트입니다.

 

 

반응형

Graphify는 Claude Code, Codex, Cursor, Gemini CLI, GitHub Copilot CLI 등에서 사용할 수 있는 오픈소스 AI 스킬로, 프로젝트 폴더 안의 코드·문서·PDF·스크린샷·이미지·오디오·비디오를 읽어 하나의 지식 그래프로 정리해줍니다. 이를 통해 복잡한 코드베이스의 구조와 아키텍처 의도를 더 빠르게 파악할 수 있습니다.

 

또한 AST 기반 구조 분석과 멀티모달 정보 추출을 결합해 인터랙티브 HTML 그래프, JSON 파일, 분석 리포트를 생성하며, 관계를 EXTRACTED, INFERRED, AMBIGUOUS로 구분해 “직접 확인된 정보”와 “추론된 정보”를 명확히 보여주는 점이 인상적입니다.

 

설치는 Python 3.10+ 환경에서 가능하며, 공식 PyPI 패키지명은 graphifyy이고 실행 명령은 graphify입니다.

 

https://github.com/safishamsi/graphify

 

GitHub - safishamsi/graphify: AI coding assistant skill (Claude Code, Codex, OpenCode, Cursor, Gemini CLI, GitHub Copilot CLI, O

AI coding assistant skill (Claude Code, Codex, OpenCode, Cursor, Gemini CLI, GitHub Copilot CLI, OpenClaw, Factory Droid, Trae, Google Antigravity). Turn any folder of code, docs, papers, images, o...

github.com

 

 
반응형

 

 

gemma-tuner-multimodal은 Apple Silicon 환경에서 Gemma 모델을 텍스트, 이미지, 오디오 데이터로 파인튜닝할 수 있도록 만든 오픈소스 프로젝트입니다. CUDA나 NVIDIA GPU 없이도 동작하며, LoRA 기반 학습을 지원하는 것이 특징입니다.

 

이 저장소는 텍스트 전용 학습뿐 아니라 이미지+텍스트, 오디오+텍스트 같은 멀티모달 학습까지 지원합니다. 또한 GCS나 BigQuery에서 데이터를 스트리밍해 대용량 데이터셋도 로컬 저장공간 부담 없이 활용할 수 있도록 설계되었습니다.

 

실시간 학습 시각화 기능도 제공해 loss curve, attention heatmap, 메모리 사용량 등을 브라우저에서 바로 확인할 수 있어 실험 과정을 직관적으로 살펴볼 수 있습니다. Gemma 4와 Gemma 3n 계열 모델을 대상으로, 맥 기반 로컬 AI 개발 환경을 구축하려는 분들에게 특히 눈에 띄는 프로젝트입니다.

 

https://github.com/mattmireles/gemma-tuner-multimodal

 

GitHub - mattmireles/gemma-tuner-multimodal: Fine-tune Gemma 4 and 3n with audio, images and text on Apple Silicon, using PyTorc

Fine-tune Gemma 4 and 3n with audio, images and text on Apple Silicon, using PyTorch and Metal Performance Shaders. - mattmireles/gemma-tuner-multimodal

github.com

 

반응형

+ Recent posts