새 엔드포인트: POST /v1/text-to-speech/stream
전체 합성을 기다리지 않고 생성되는 오디오 청크를 실시간으로 전달하는 저지연 스트리밍 엔드포인트가 추가되었습니다./v1/text-to-speech와의 주요 차이점:| 기능 | 표준 | 스트리밍 |
|---|---|---|
| 응답 | 완성된 오디오 파일 | 청크 오디오 스트림 |
| 지연 시간 | 전체 합성 대기 | 첫 청크 ~200ms |
volume / target_lufs | 지원 | 미지원 |
| 출력 설정 | Output | OutputStream (피치, 템포, 포맷만) |
audio/wav 또는 audio/mpeg).새 엔드포인트: GET /v1/users/me/subscription
인증된 사용자의 플랜 등급, 크레딧 사용량, 동시 요청 제한을 조회합니다.SDK 업데이트
9개 공식 SDK 모두 스트리밍 및 구독 지원이 추가되었습니다:| SDK | 버전 | 스트리밍 메서드 |
|---|---|---|
| Python | 0.2.0 | text_to_speech_stream() (동기 + 비동기) |
| JavaScript | 0.3.0 | textToSpeechStream() → ReadableStream |
| Go | v0.2.0 | TextToSpeechStream() → io.ReadCloser |
| Rust | 0.2.0 | text_to_speech_stream() → Stream<Bytes> |
| Swift | v0.2.0 | textToSpeechStream() → AsyncThrowingStream |
| C# | 0.2.0 | TextToSpeechStreamAsync() → Stream |
| Java | 1.1.0 | textToSpeechStream() → InputStream |
| Kotlin | 1.1.0 | textToSpeechStream() → InputStream |
| C | 1.1.0 | typecast_text_to_speech_stream() (콜백) |
새 모델: ssfm-v30
음성 품질이 개선되고 기능이 확장된 새로운ssfm-v30 모델 지원이 추가되었습니다.새로운 기능:- 스마트 이모션 -
SmartPrompt를 사용한 문맥 인식 감정 추론 - 7가지 감정 프리셋 -
whisper,toneup,tonedown프리셋 추가 - 범용 감정 지원 - 모든 감정을 모든 캐릭터에서 사용 가능
- 37개 언어 - 10개 새 언어 추가
새 엔드포인트: GET /v2/voices
모델별로 그룹화된 감정과 추가 메타데이터가 포함된 향상된 캐릭터 목록 엔드포인트가 추가되었습니다.| 파라미터 | 타입 | 설명 |
|---|---|---|
model | string | 모델별 필터링 (ssfm-v21, ssfm-v30) |
gender | string | 성별별 필터링 (male, female) |
age | string | 연령대별 필터링 (child, teenager, young_adult, middle_age, elder) |
use_cases | string | 사용 사례별 필터링 (Audiobook, Game, E-learning 등) |
지원 중단: 캐릭터 관리 엔드포인트
다음 엔드포인트가 지원 중단되어 제거되었습니다:| 엔드포인트 | 상태 |
|---|---|
POST /v1/voices | 제거됨 |
GET /v1/voices/{voice_id} | 제거됨 |
GET /v2/voices를 사용하세요.초기 출시: ssfm-v21
ssfm-v21 모델로 타입캐스트 Text-to-Speech API를 출시했습니다.엔드포인트:| 메서드 | 엔드포인트 | 설명 |
|---|---|---|
| POST | /v1/text-to-speech | 텍스트에서 음성 생성 |
| GET | /v1/voices | 사용 가능한 음성 목록 |
- 저지연 음성 합성
- 4가지 감정 프리셋:
normal,happy,sad,angry - 음성에 따라 감정 사용 가능 여부가 다름
- 27개 언어 지원