소스 루트 추가
논문, 노트, 프로젝트 폴더를 원본 자료 경계로 지정합니다. 원본은 수정하지 않고 파생 산출물만 별도 작업 경로에 둡니다.
Local-first AI workspace
Soma Studio는 `cargo install`로 설치해 localhost 브라우저 UI에서 사용하는 로컬 우선 AI 에이전트 작업실입니다. 노트북으로 생각을 정리하고, source root 기반 RAG로 내부 지식을 활용하세요.

작동 방식
논문, 노트, 프로젝트 폴더를 원본 자료 경계로 지정합니다. 원본은 수정하지 않고 파생 산출물만 별도 작업 경로에 둡니다.
기능
외부 검색이나 클라우드 provider를 기본값으로 열지 않고, 내 기기 안에서 자료 정리, 검색, 대화 흐름을 완성하는 데 집중합니다.
여러 로컬 디렉터리를 읽기 전용 자료 경계로 등록하고 fingerprint와 처리 상태를 남깁니다.
Markdown과 Typst 노트를 탐색, 편집, 검색하며 연구 흐름을 한 곳에 정리합니다.
노트북과 source root를 같은 corpus로 묶고 lexical/semantic 검색 결과의 출처를 보여줍니다.
loopback bind, bootstrap token, HttpOnly session, same-origin API를 기본 전제로 둡니다.
`cargo install soma-studio` 이후 로컬 서버를 열고 브라우저에서 바로 작업합니다.
세션, 대화, provider 상태, ingest job, derived artifact 상태를 로컬 DB에 보관합니다.
로컬 스택
Soma Studio의 기본 경험은 로컬 서버 하나와 같은 origin의 정적 앱 셸입니다. 모델 provider는 loopback 안의 Ollama와 LM Studio로 좁히고, 데이터와 derived artifact는 사용자 머신에 둡니다.