논문, 문서, 노트, 지원되는 미디어를 넣으면 OpenCairn이 워크스페이스 위키를 만들고, 근거가 있는 연결을 보여 주며, AI 변경을 검토 가능한 흐름으로 남깁니다.
검토 가능한 AI 액션 · 파일 올리면 바로 시작·개발자이신가요? 셀프호스팅 가이드 ↗
올리는 것이 시작입니다. 파싱, 임베딩, 위키 초안, 그래프 연결, Q&A까지 좁은 단계가 이어지고, 답변과 그래프에는 출처 칩과 근거 패널이 붙습니다.
PDF, 일반 문서, Markdown/CSV ZIP 내보내기, Google Drive file-ID import, 지원되는 미디어를 가져옵니다. OCR과 미디어 처리는 provider와 설정에 따라 달라집니다.
본문 · 표 구조 · OCR 결과를 마크다운으로 정규화합니다. 미디어 전사는 설정된 provider 경로에서 처리됩니다.
벡터 공간으로 변환. 비슷한 것끼리 가까워짐.
컴파일 워크플로가 주제별 위키 초안을 작성합니다.
백링크 · 대척점 · 인과 관계를 지식 그래프로.
Q&A · 복습 카드 · 소크라테스식 튜터 · 문서 생성 표면.
AI 답변에는 출처 칩이 붙고, 그래프·카드·마인드맵에는 근거 패널이 연결됩니다. 문장 단위 강제 검증은 아직 런타임 전체에 적용되지 않았습니다.
현재 제품은 workflow-backed job, action ledger, note action, 생성 파일, 단계적 plan/code surface를 중심으로 움직입니다. 실제 활성 범위는 공개 roadmap과 feature registry를 기준으로 확인합니다.
업로드와 import를 source note, 정규화된 텍스트, 검색 가능한 project context로 바꿉니다.
chat과 retrieval surface는 workspace scope 안의 context로 답하고 source evidence를 함께 보여 줍니다.
create, rename, move, delete, restore, update 흐름은 preview-and-apply contract를 거칩니다.
프로젝트 파일과 문서 생성 surface는 어떤 workflow run에서 나온 결과인지 추적 가능하게 유지합니다.
workflow activity, recovery state, approval 기록을 background job 안에 묻지 않고 보여 줍니다.
plan, code workspace, execution-loop 기능은 product contract와 feature flag 안에서 단계적으로 켜집니다.
하나의 데이터, 다섯 가지 시야. 필요한 순간에 어울리는 뷰로 전환합니다. 전환은 기록으로 남고, 언제든 되돌릴 수 있습니다.
전체 네트워크를 한눈에 탐색
중심 개념에서 방사형 확장
검색 · 필터 · 간격 반복 복습
시간 축으로 보는 변화
카드를 모아 보는 작업 보드
위키 페이지는 그냥 글이 아니라, 자료·사람·검토 가능한 AI 작업이 만나는 곳입니다. 페이지마다 출처·편집자·워크플로 기록이 함께 살아 있습니다.
Attention은 입력 시퀀스의 각 토큰에 가중치를 부여해 관련성을 계산하는 메커니즘입니다. Vaswani et al. (2017)의 "Attention Is All You Need"가 transformer 아키텍처의 기반을 제시했으며, 이후 self-attention과 multi-head attention으로 확장되었습니다.
관련 문서: Transformer, Scaled Dot-Product, Linear Attention.
자료 주권 · 살아 있는 지식 · 학습까지 한 줄기 · 열린 소스. 한두 가지를 지키는 도구는 많지만, 이 넷을 한 자리에 모은 도구가 OpenCairn입니다.
텍스트 · 벡터 · 원본 파일 모두 여러분의 인프라 안에 있습니다. Ollama 기반 로컬 LLM 구성에서는 모델 호출이 외부로 나가지 않습니다. 외부 connector를 켜지 않는 배포에도 맞출 수 있습니다.
AI 액션은 페이지 초안, 업데이트 제안, 기존 위키와의 연결을 만들 수 있습니다. 중요한 변경은 적용 전에 검토하고 편집합니다. 손으로 옮겨 적는 시간이 줄어듭니다.
Q&A · 그래프 표면 · 복습 카드 · 소크라테스식 문답 · 문서 생성 표면까지 같은 위키를 재료로 돌아갑니다. 도구 사이를 건너뛰지 않습니다.
기본은 AGPLv3로 공개되어 포크 · 수정 · 자체 배포가 자유롭습니다. AGPL을 받아들이기 어려운 조직을 위한 상용 라이선스도 함께 운영합니다. 서비스가 끊길 걱정이 없습니다.
개인에서 시작해 연구실, 규제 산업까지. 규모가 커져도 도구는 그대로입니다.
논문과 문서를 한 덩어리 위키로 엮고, 그래프와 Q&A로 관계를 탐색합니다. 시험·발표 전에는 AI 퀴즈로 빠르게 점검합니다. 인용은 원본 자료로 이어집니다.
역할별 권한과 실시간 협업으로 운영합니다. 회의 노트와 연구 자료를 한 프로젝트 위키에 묶고, 선배가 졸업해도 지식은 랩에 남습니다.
금융 · 의료 · 공공 · 대학처럼 외부 SaaS가 제한되는 환경을 고려해 설계했습니다. 완전 로컬 LLM 경로와 상용 라이선스를 기반으로 배포 정책에 맞출 수 있습니다.
Docker Compose로 데이터베이스 · 파일 스토리지 · 워크플로 엔진을 올리고, 의존성 설치와 마이그레이션 후 앱을 실행합니다. 완전 로컬 LLM 모드는 Ollama 프로필로 전환합니다.
핵심 기능은 열어두고, 무료/유료 플랜별 월 크레딧으로 사용량을 관리합니다. 제공 크레딧과 세부 한도는 운영 비용에 따라 조정될 수 있습니다.
무료 시작 · 월 500 크레딧
개인 작업 · 월 8,000 크레딧
월 제공량은 운영 비용에 따라 변경 가능
고사용량 · 월 18,000 크레딧
상업적 남용 방지 한도 적용 가능
본인 provider 키 · 관리형 크레딧 없음
표시 가격은 월 구독 기준입니다. 결제, VAT, 환불, 자동 충전 정책은 출시 시점의 약관에 따릅니다.
관리형 클라우드를 원하지 않는다면, 두 가지 길이 더 있습니다.
지원되는 미디어 경로가 설정된 환경에서는 가능합니다. 오디오·영상은 provider와 worker 설정에 따라 전사된 뒤 텍스트 자료처럼 처리됩니다. 실시간 전사는 지원하지 않으며, 파일 업로드 후 처리됩니다.
전부 여러분이 운영하는 인프라에 저장됩니다. 텍스트·벡터·위키는 데이터베이스에, 원본 파일은 파일 스토리지에. Gemini 모드에서는 AI 호출이 외부 provider로 나가고, Ollama 기반 로컬 LLM 구성에서는 모델 호출이 외부로 나가지 않습니다. Google Drive·Notion 같은 외부 connector는 켠 경우에만 해당 서비스와 통신합니다.
OpenCairn은 듀얼 라이선스입니다. 기본 AGPLv3로도 내부 사용을 검토할 수 있지만, 네트워크 제공이나 소스 공개 의무가 걸릴 수 있는 배포 방식은 조직의 법무 검토가 필요합니다. 내부 정책상 AGPL 컴포넌트 사용이 어렵거나 소스 공개가 곤란한 조직을 위해 별도 상용 라이선스를 운영합니다.
현재 기본 경로는 Gemini와 Ollama이며, OpenAI 호환 게이트웨이도 구성할 수 있습니다. 기능별 지원 범위는 provider마다 다르고, Gemini 고유 기능은 해당 provider를 켠 환경에서만 동작합니다.
Markdown/CSV 내보내기 ZIP을 업로드하면 OpenCairn이 폴더와 노트 구조를 위키로 다시 구성합니다. Google Drive는 현재 파일 ID 기반 가져오기가 구현되어 있습니다. Notion을 포함한 앱 연결형 가져오기는 커넥터 로드맵에서 다룹니다.
AI가 만든 제안은 검토·적용 흐름을 거치고, 적용 후에도 직접 수정할 수 있습니다. 노트 변경은 버전과 활동 기록으로 추적되며, 중복과 모순 검토는 workflow-backed surface로 계속 확장됩니다.
Hocuspocus 기반 동기화와 Yjs를 사용합니다. 커서·코멘트·@멘션·알림·공개 링크 같은 협업 표면은 구현되어 있고, 실제 품질은 배포 환경의 네트워크와 Hocuspocus 설정에 영향을 받습니다.
트랜스포머 계열 논문을 위키로 엮는 흐름을 보여 주는 샘플 그래프입니다. 노드에 마우스를 올리거나 탭해 보세요. 연결이 어떻게 퍼지는지 확인할 수 있습니다.