Skip to content

changh95/MiroFish-Korean

 
 

Repository files navigation

이 포크의 모든 UI는 한국어로 표시됩니다. 백엔드 LLM 프롬프트는 언어에 구애받지 않도록 영어로 작성되어 있습니다.

MiroFish Logo

666ghj%2FMiroFish | Trendshift

간결하고 범용적인 군집 지능 엔진, 모든 것을 예측합니다
A Simple and Universal Swarm Intelligence Engine, Predicting Anything

666ghj%2MiroFish | Shanda

GitHub Stars GitHub Watchers GitHub Forks Docker

Discord X Instagram

English | 한국어

⚡ 프로젝트 개요

MiroFish는 멀티 에이전트 기술 기반의 차세대 AI 예측 엔진입니다. 현실 세계의 시드 정보(속보, 정책 초안, 금융 신호 등)를 추출하여 고충실도 병렬 디지털 세계를 자동으로 구축합니다. 이 공간 안에서 독립적인 성격, 장기 기억, 행동 논리를 갖춘 수천 개의 지능형 에이전트가 자유롭게 상호작용하며 사회적 진화를 겪습니다. "신의 시점"에서 동적으로 변수를 주입하여 미래 궤적을 정밀하게 추론할 수 있습니다 — 디지털 샌드박스에서 미래를 리허설하고, 수많은 시뮬레이션 후에 최적의 의사결정을 내리세요.

준비물: 시드 자료(데이터 분석 보고서 또는 흥미로운 소설 등)를 업로드하고, 자연어로 예측 요구사항을 설명하세요
MiroFish 결과물: 상세한 예측 보고서와 심층 상호작용이 가능한 고충실도 디지털 세계

우리의 비전

MiroFish는 현실을 반영하는 군집 지능 미러를 구축하는 데 전념합니다. 개별 상호작용에서 촉발되는 집단 창발 현상을 포착하여 전통적 예측의 한계를 돌파합니다:

  • 거시적 관점: 의사결정자를 위한 리허설 실험실로서, 정책과 PR을 무위험 환경에서 테스트할 수 있습니다
  • 미시적 관점: 개인 사용자를 위한 창의적 샌드박스로서, 소설 결말 추론이든 상상력 탐험이든, 재미있고 직관적으로 접근할 수 있습니다

진지한 예측부터 재미있는 시뮬레이션까지, 모든 "만약에?"가 결과를 볼 수 있게 하여 모든 것의 예측을 가능하게 합니다.

🌐 온라인 데모

온라인 데모 환경에서 트렌딩 여론 이벤트에 대한 예측 시뮬레이션을 체험해 보세요: mirofish-live-demo

📸 시스템 스크린샷

스크린샷 1 스크린샷 2
스크린샷 3 스크린샷 4
스크린샷 5 스크린샷 6

🎬 데모 영상

1. 우한대학교 여론 시뮬레이션 + MiroFish 프로젝트 소개

MiroFish 데모 영상

이미지를 클릭하면 BettaFish로 생성한 "우한대학교 여론 보고서" 예측의 전체 데모 영상을 시청할 수 있습니다

2. 《홍루몽》 실전된 결말 시뮬레이션 예측

MiroFish 데모 영상

이미지를 클릭하면 《홍루몽》 전 80회 수십만 자를 기반으로 한 MiroFish의 실전된 결말 심층 예측을 시청할 수 있습니다

금융 예측, 시사 뉴스 예측 등 추가 예시가 계속 업데이트됩니다...

🔄 워크플로우

  1. 그래프 구축: 현실 시드 추출 & 개별/집단 기억 주입 & GraphRAG 구축
  2. 환경 설정: 개체 관계 추출 & 페르소나 생성 & 에이전트 구성 파라미터 주입
  3. 시뮬레이션: 이중 플랫폼 병렬 시뮬레이션 & 예측 요구사항 자동 분석 & 시계열 기억 동적 업데이트
  4. 보고서 생성: ReportAgent가 풍부한 도구 세트로 시뮬레이션 후 환경과 심층 상호작용
  5. 심층 상호작용: 시뮬레이션 세계의 모든 에이전트와 대화 & ReportAgent와 대화

🚀 빠른 시작

방법 1: 소스 코드 배포 (권장)

사전 요구사항

도구 버전 요구사항 설명 설치 확인
Node.js 18+ 프론트엔드 런타임, npm 포함 node -v
Python ≥3.11, ≤3.12 백엔드 런타임 python --version
uv 최신 버전 Python 패키지 매니저 uv --version

1. 환경 변수 설정

# 예시 설정 파일 복사
cp .env.example .env

# .env 파일을 편집하여 필요한 API 키를 입력하세요

필수 환경 변수:

# LLM API 설정 (OpenAI SDK 형식을 지원하는 모든 LLM API 호환)
# 권장: 알리바바 Qwen-plus 모델 (Bailian 플랫폼): https://bailian.console.aliyun.com/
# 소비량이 많으므로, 먼저 40라운드 미만의 시뮬레이션을 시도해 보세요
LLM_API_KEY=your_api_key
LLM_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1
LLM_MODEL_NAME=qwen-plus

# Zep Cloud 설정
# 월간 무료 할당량으로 간단한 사용이 가능합니다: https://app.getzep.com/
ZEP_API_KEY=your_zep_api_key

2. 의존성 설치

# 모든 의존성 일괄 설치 (루트 + 프론트엔드 + 백엔드)
npm run setup:all

또는 단계별 설치:

# Node 의존성 설치 (루트 + 프론트엔드)
npm run setup

# Python 의존성 설치 (백엔드, 가상환경 자동 생성)
npm run setup:backend

3. 서비스 시작

# 프론트엔드와 백엔드 동시 시작 (프로젝트 루트에서 실행)
npm run dev

서비스 주소:

  • 프론트엔드: http://localhost:3000
  • 백엔드 API: http://localhost:5001

개별 시작:

npm run backend   # 백엔드만 시작
npm run frontend  # 프론트엔드만 시작

방법 2: Docker 배포

# 1. 환경 변수 설정 (소스 코드 배포와 동일)
cp .env.example .env

# 2. 이미지 풀링 및 시작
docker compose up -d

기본적으로 루트 디렉토리의 .env를 읽고, 포트 3000(프론트엔드)/5001(백엔드)를 매핑합니다

docker-compose.yml에 가속 미러 주소가 주석으로 제공되어 있으며, 필요 시 교체할 수 있습니다

📬 커뮤니티

QQ 그룹

 

MiroFish 팀은 정규직/인턴을 상시 모집하고 있습니다. 멀티 에이전트 시뮬레이션과 LLM 응용에 관심이 있으시면 이력서를 보내주세요: mirofish@shanda.com

📄 감사의 말

MiroFish는 Shanda Group의 전략적 지원과 인큐베이션을 받고 있습니다!

MiroFish의 시뮬레이션 엔진은 **OASIS (Open Agent Social Interaction Simulations)**에 의해 구동됩니다. CAMEL-AI 팀의 오픈소스 기여에 진심으로 감사드립니다!

📈 프로젝트 통계

Star History Chart

About

A Simple and Universal Swarm Intelligence Engine, Predicting Anything. 简洁通用的群体智能引擎,预测万物

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors

Languages

  • Python 57.8%
  • Vue 41.1%
  • Other 1.1%