Local-first AI workspace

로컬에서 시작하는 AI 작업실

Soma Studio는 `cargo install`로 설치해 localhost 브라우저 UI에서 사용하는 로컬 우선 AI 에이전트 작업실입니다. 노트북으로 생각을 정리하고, source root 기반 RAG로 내부 지식을 활용하세요.

작동 방식 보기
  • 모든 작업 컨텍스트는 사용자 기기에서 시작
  • 브라우저 UI와 same-origin 로컬 서버
  • Ollama, LM Studio 전용 provider 경계
  • 노트북, source root, RAG 출처 추적
  • Turso local embedded 저장소
로컬 폴더, 노트북, 검색 그래프, 브라우저 채팅 작업실이 연결된 Soma Studio 제품 비주얼
localhost:5173 실행 중
Provider Ollama / LM Studio ready
Session HttpOnly + SameSite guarded
Storage Turso local embedded local
Assets same-origin static shell served

작동 방식

로컬 파일이 지식이 되고, 답변이 됩니다

source roots

소스 루트 추가

논문, 노트, 프로젝트 폴더를 원본 자료 경계로 지정합니다. 원본은 수정하지 않고 파생 산출물만 별도 작업 경로에 둡니다.

기능

로컬 작업 환경에 맞춘 핵심 표면

외부 검색이나 클라우드 provider를 기본값으로 열지 않고, 내 기기 안에서 자료 정리, 검색, 대화 흐름을 완성하는 데 집중합니다.

Source Roots

여러 로컬 디렉터리를 읽기 전용 자료 경계로 등록하고 fingerprint와 처리 상태를 남깁니다.

Notebook Workspace

Markdown과 Typst 노트를 탐색, 편집, 검색하며 연구 흐름을 한 곳에 정리합니다.

Local RAG

노트북과 source root를 같은 corpus로 묶고 lexical/semantic 검색 결과의 출처를 보여줍니다.

Localhost Security

loopback bind, bootstrap token, HttpOnly session, same-origin API를 기본 전제로 둡니다.

Cargo Install Surface

`cargo install soma-studio` 이후 로컬 서버를 열고 브라우저에서 바로 작업합니다.

Turso Local Storage

세션, 대화, provider 상태, ingest job, derived artifact 상태를 로컬 DB에 보관합니다.

로컬 스택

SaaS가 아니라, 브라우저 UI를 가진 로컬 런타임

Soma Studio의 기본 경험은 로컬 서버 하나와 같은 origin의 정적 앱 셸입니다. 모델 provider는 loopback 안의 Ollama와 LM Studio로 좁히고, 데이터와 derived artifact는 사용자 머신에 둡니다.

Browser UI Notebook · Chat · Source Roots
localhost server HTTP · SSE · Guard · Static assets
Local data Turso · Derived workspace · Providers