-
Notifications
You must be signed in to change notification settings - Fork 0
Expand file tree
/
Copy pathclient_test.py
More file actions
109 lines (93 loc) · 3.35 KB
/
client_test.py
File metadata and controls
109 lines (93 loc) · 3.35 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
import socketio
import base64
import io
import time
from pydub import AudioSegment
from pydub.playback import play
import pyaudio
import wave
# --- Paramètres configurables ---
target_language = 'en' # Langue cible pour la traduction (ex: 'en', 'fr', 'es')
duration_seconds = 10 # Durée de l'enregistrement audio en secondes
sample_rate_hz = 16000 # Fréquence d'échantillonnage de l'audio (Hz)
speaker_gender = 'female' # Genre du locuteur pour la synthèse vocale ('male' ou 'female')
# --- Configuration PyAudio ---
CHUNK = 1024
FORMAT = pyaudio.paInt16
CHANNELS = 1
sio = socketio.Client()
@sio.event
def connect():
print('Connexion établie !')
print("Démarrage de l'enregistrement audio...")
audio_data = record_audio(duration_seconds, sample_rate_hz)
audio_base64 = base64.b64encode(audio_data).decode('utf-8')
print(f"Envoi de la requête de traduction :")
print(f" Langue cible : {target_language}")
print(f" Durée d'enregistrement : {duration_seconds} secondes")
print(f" Fréquence d'échantillonnage : {sample_rate_hz} Hz")
print(f" Genre du locuteur : {speaker_gender}")
sio.emit('translate_and_speak', {
'target_lang': target_language,
'duration': duration_seconds,
'sample_rate': sample_rate_hz,
'gender': speaker_gender,
'audio_base64': audio_base64
})
@sio.event
def transcription_result(data):
print(f"\n--- Transcription reçue ---")
print(f"Langue source détectée : {data['source_lang']}")
print(f"Texte transcrit (original) : '{data['source_text']}'")
@sio.event
def translation_text_result(data):
print(f"\n--- Traduction textuelle reçue ---")
print(f"Langue cible : {data['target_lang']}")
print(f"Texte traduit : '{data['translated_text']}'")
@sio.event
def translation_result(data):
print(f"\n--- Audio traduit reçu ---")
# Décode l'audio et le joue
audio_bytes = base64.b64decode(data['audio_base64'])
audio_segment = AudioSegment.from_file(io.BytesIO(audio_bytes), format="wav")
print("Lecture de l'audio traduit...")
play(audio_segment)
sio.disconnect()
@sio.event
def translation_error(data):
print(f"Erreur de traduction : {data['error']}")
if 'details' in data:
print(f"Détails : {data['details']}")
sio.disconnect()
@sio.event
def disconnect():
print('Déconnexion du serveur.')
def record_audio(duration, sample_rate):
p = pyaudio.PyAudio()
stream = p.open(format=FORMAT,
channels=CHANNELS,
rate=sample_rate,
input=True,
frames_per_buffer=CHUNK)
print(f"Enregistrement de {duration} secondes d'audio...")
frames = []
for i in range(0, int(sample_rate / CHUNK * duration)):
data = stream.read(CHUNK)
frames.append(data)
print("Enregistrement terminé.")
stream.stop_stream()
stream.close()
p.terminate()
# Convertir les frames en un objet BytesIO pour le passer à base64
# et s'assurer que c'est un format WAV valide
buffer = io.BytesIO()
wf = wave.open(buffer, 'wb')
wf.setnchannels(CHANNELS)
wf.setsampwidth(p.get_sample_size(FORMAT))
wf.setframerate(sample_rate)
wf.writeframes(b''.join(frames))
wf.close()
buffer.seek(0) # Remettre le curseur au début
return buffer.read()
sio.connect('http://localhost:5000')
sio.wait()