.csv parser implemented but csv processing still not works

This commit is contained in:
2025-11-13 15:18:30 +03:00
parent 385fda93f9
commit 2a30e12551

214
main.py Normal file → Executable file
View File

@ -1,3 +1,4 @@
#!/usr/bin/python3
import os import os
import time import time
import numpy as np import numpy as np
@ -15,7 +16,8 @@ import queue
# ================================================================================ # ================================================================================
# ПАРАМЕТРЫ И КОНСТАНТЫ # ПАРАМЕТРЫ И КОНСТАНТЫ
# ================================================================================ # ================================================================================
data_dir = r"D:\data" #data_dir = r"D:\data"
data_dir = "./data"
PeriodIntegrate = 2 PeriodIntegrate = 2
pontInOneFqChange = 86 pontInOneFqChange = 86
@ -41,6 +43,7 @@ MAX_PROCESSING_TIME_MS = 250
DATA_TYPE_RAW = "RAW" DATA_TYPE_RAW = "RAW"
DATA_TYPE_SYNC_DET = "SYNC_DET" DATA_TYPE_SYNC_DET = "SYNC_DET"
DATA_TYPE_FOURIER = "FOURIER" DATA_TYPE_FOURIER = "FOURIER"
DATA_TYPE_HEX = "HEX"
# Режим обработки FOURIER файлов # Режим обработки FOURIER файлов
FOURIER_MODE = 'collapse_mean' FOURIER_MODE = 'collapse_mean'
@ -61,19 +64,22 @@ DEFAULT_FILE_POLL_INTERVAL_MS = 100 # 100 мс
# ================================================================================ # ================================================================================
def detect_data_type(first_line): def detect_data_type(first_line):
"""Определяет тип данных по первой строке файла.""" """Определяет тип данных по первой строке файла.
Логика: если первая строка начинается с ключевого слова RAW/SYNC_DET/FOURIER/FFT,
считаем соответствующий тип. Иначе — HEX.
"""
try: try:
first_line = first_line.strip() up = first_line.strip().upper()
if "RAW" in first_line.upper(): if up.startswith('RAW'):
return DATA_TYPE_RAW return DATA_TYPE_RAW
elif "SYNC_DET" in first_line.upper() or "SYNC" in first_line.upper(): if up.startswith('SYNC_DET') or up.startswith('SYNC DET'):
return DATA_TYPE_SYNC_DET return DATA_TYPE_SYNC_DET
elif "FOURIER" in first_line.upper() or "FFT" in first_line.upper(): if up.startswith('FOURIER') or up.startswith('FFT'):
return DATA_TYPE_FOURIER return DATA_TYPE_FOURIER
else: return DATA_TYPE_HEX
return DATA_TYPE_RAW except Exception:
except: return DATA_TYPE_HEX
return DATA_TYPE_RAW
def resize_1d_interpolate(data, target_size): def resize_1d_interpolate(data, target_size):
@ -113,14 +119,123 @@ def load_data_with_type(filename):
with open(filename, 'r') as f: with open(filename, 'r') as f:
first_line = f.readline() first_line = f.readline()
data_type = detect_data_type(first_line) detected_type = detect_data_type(first_line)
if detected_type != DATA_TYPE_HEX:
try: try:
data = np.loadtxt(filename, skiprows=1) data = np.loadtxt(filename, skiprows=1)
except: except:
data = np.loadtxt(filename) data = np.loadtxt(filename)
return detected_type, data
return data_type, data # HEX формат: строки вида 0xAABBBBBB, где AA — тип, BBBBBB — int24_t
return parse_hex_file(filename)
def parse_hex_file(filename):
"""Парсит HEX формат с разделением по FE и мапит к RAW/SYNC_DET/FOURIER.
Возвращает (data_type, data), где data может быть:
- numpy.ndarray (1D) для одного сегмента
- list[numpy.ndarray] для нескольких сегментов (используется для FOURIER, а также RAW/SYNC_DET)
"""
def to_int24(v):
x = int(v, 16)
if x & 0x800000:
x -= 0x1000000
return float(x)
# Текущий накапливаемый сегмент
cur = {"D0": [], "F0": [], "F1": [], "F2": [], "F3": [], "F4": []}
# Списки сегментов по типам данных
seg_raw = []
seg_sync = []
seg_fourier = []
def finalize_segment():
nonlocal cur
# Приоритет выбора, что считать сегментом
if cur["F4"]:
seg_fourier.append(np.asarray(cur["F4"], dtype=float))
elif cur["F3"]:
arr = np.asarray(cur["F3"], dtype=float)
seg_fourier.append(np.sqrt(np.maximum(0.0, arr)))
elif cur["F1"] and cur["F2"] and len(cur["F1"]) == len(cur["F2"]):
re = np.asarray(cur["F1"], dtype=float)
im = np.asarray(cur["F2"], dtype=float)
seg_fourier.append(np.sqrt(re * re + im * im))
elif cur["F0"]:
seg_sync.append(np.asarray(cur["F0"], dtype=float))
elif cur["D0"]:
seg_raw.append(np.asarray(cur["D0"], dtype=float))
# Сброс
cur = {"D0": [], "F0": [], "F1": [], "F2": [], "F3": [], "F4": []}
with open(filename, 'r') as f:
for line in f:
s = line.strip()
if not s:
continue
# Требование: учитывать только строки, начинающиеся с 0x/0X
if not (s.startswith('0x') or s.startswith('0X')):
continue
h = s[2:]
h = ''.join(ch for ch in h if ch in '0123456789abcdefABCDEF')
if len(h) < 2:
continue
t_byte = h[:2].upper()
# FE — завершить текущий сегмент
if t_byte == 'FE':
finalize_segment()
continue
# E0..E9 — игнор
if t_byte.startswith('E') and len(t_byte) == 2 and t_byte[1] in '0123456789':
continue
# 00 — цифровые биты, пока пропускаем
if t_byte == '00':
continue
if len(h) < 8:
continue
# Значение 24 бита
val_hex = h[2:8]
try:
value = to_int24(val_hex)
except Exception:
continue
if t_byte == 'D0':
cur['D0'].append(value)
elif t_byte == 'F0':
cur['F0'].append(value)
elif t_byte == 'F1':
cur['F1'].append(value)
elif t_byte == 'F2':
cur['F2'].append(value)
elif t_byte == 'F3':
cur['F3'].append(value)
elif t_byte == 'F4':
cur['F4'].append(value)
else:
# Неизвестные — пропускаем
continue
# Финализируем хвост
finalize_segment()
if seg_fourier:
return DATA_TYPE_FOURIER, seg_fourier
if seg_sync:
# Если несколько, вернём список сегментов
return DATA_TYPE_SYNC_DET, seg_sync if len(seg_sync) > 1 else seg_sync[0]
if seg_raw:
return DATA_TYPE_RAW, seg_raw if len(seg_raw) > 1 else seg_raw[0]
return DATA_TYPE_RAW, np.asarray([], dtype=float)
def get_file_time_with_milliseconds(filename): def get_file_time_with_milliseconds(filename):
@ -164,8 +279,10 @@ class DataAnalyzerApp:
os.chdir(self.data_dir) os.chdir(self.data_dir)
# Инициализируем с существующими файлами # Инициализируем с существующими файлами
existing_files = sorted([f for f in os.listdir() if f.endswith('.txt') or existing_files = sorted([
f.endswith('.txt1') or f.endswith('.txt2')]) f for f in os.listdir()
if f.lower().endswith(('.txt', '.txt1', '.txt2', '.csv'))
])
self.processed_files = set(existing_files) self.processed_files = set(existing_files)
if existing_files: if existing_files:
@ -800,19 +917,30 @@ class DataAnalyzerApp:
return True, None return True, None
def process_fourier_data(self, A, original_size): def process_fourier_data(self, A, original_size):
"""Обработка FOURIER БЕЗ интерполяции.""" """Обработка FOURIER без интерполяции. Поддерживает несколько сегментов."""
if A.ndim == 1:
A = A.reshape(-1, 1)
A_truncated = A[:, 0].copy()
columns_to_add = [] columns_to_add = []
if FOURIER_MODE == 'collapse_mean': # A может быть: list[np.ndarray] (из HEX) или numpy.ndarray
columns_to_add.append(A_truncated.astype(float)) if isinstance(A, list):
elif FOURIER_MODE == 'expand': for seg in A:
columns_to_add.append(A_truncated.astype(float)) col = np.asarray(seg, dtype=float)
elif FOURIER_MODE == 'first': columns_to_add.append(col)
columns_to_add.append(A_truncated.astype(float)) return True, columns_to_add
if A.ndim == 1:
columns_to_add.append(A.astype(float))
return True, columns_to_add
# Если A двумерный: считаем колонками столбцы или строки — выбираем более длинное измерение как длину спектра
if A.ndim == 2:
rows, cols = A.shape
if rows >= cols:
for i in range(cols):
columns_to_add.append(A[:, i].astype(float))
else:
for i in range(rows):
columns_to_add.append(A[i, :].astype(float))
return True, columns_to_add
return True, columns_to_add return True, columns_to_add
@ -978,8 +1106,25 @@ class DataAnalyzerApp:
add_to_bscan = False add_to_bscan = False
if data_type == DATA_TYPE_RAW: if data_type == DATA_TYPE_RAW:
# Может прийти список сегментов (HEX с FE)
if isinstance(A, list):
for i, seg in enumerate(A):
add_to_bscan, bscan_col = self.process_raw_data(np.asarray(seg), len(seg))
if add_to_bscan and bscan_col is not None:
col_time = file_time + timedelta(milliseconds=i * 10)
self.bscan_queue.put((bscan_col, col_time, DATA_TYPE_RAW))
add_to_bscan, bscan_col = False, None
else:
add_to_bscan, bscan_col = self.process_raw_data(A, original_size) add_to_bscan, bscan_col = self.process_raw_data(A, original_size)
elif data_type == DATA_TYPE_SYNC_DET: elif data_type == DATA_TYPE_SYNC_DET:
if isinstance(A, list):
for i, seg in enumerate(A):
add_to_bscan, bscan_col = self.process_sync_det_data(np.asarray(seg), len(seg))
if add_to_bscan and bscan_col is not None:
col_time = file_time + timedelta(milliseconds=i * 10)
self.bscan_queue.put((bscan_col, col_time, DATA_TYPE_SYNC_DET))
add_to_bscan, bscan_col = False, None
else:
add_to_bscan, bscan_col = self.process_sync_det_data(A, original_size) add_to_bscan, bscan_col = self.process_sync_det_data(A, original_size)
elif data_type == DATA_TYPE_FOURIER: elif data_type == DATA_TYPE_FOURIER:
add_to_bscan, columns = self.process_fourier_data(A, original_size) add_to_bscan, columns = self.process_fourier_data(A, original_size)
@ -1023,17 +1168,32 @@ class DataAnalyzerApp:
def process_files(self): def process_files(self):
"""Обработка файлов в цикле.""" """Обработка файлов в цикле."""
files = sorted([f for f in os.listdir() if f.endswith('.txt') or files = sorted([f for f in os.listdir() if f.endswith('.csv') or
f.endswith('.txt1') or f.endswith('.txt2')]) f.endswith('.txt1') or f.endswith('.txt2') or f.endswith('.csv')])
new_files = [f for f in files if f not in self.processed_files] new_files = [f for f in files if f not in self.processed_files]
print("new files:", new_files, files)
for fname in new_files: for fname in new_files:
time_start = time.perf_counter() time_start = time.perf_counter()
try: try:
data_type, A = load_data_with_type(fname) data_type, A = load_data_with_type(fname)
# Поддержка списка сегментов (HEX с FE)
if isinstance(A, list):
original_size = len(A[0]) if len(A) > 0 else 0
elif isinstance(A, np.ndarray):
original_size = A.shape[0] original_size = A.shape[0]
else:
original_size = 0
# Если после парсинга данных нет — пропускаем файл
if (isinstance(A, list) and len(A) == 0) or (isinstance(A, np.ndarray) and A.size == 0):
timestamp = datetime.now().strftime("%H:%M:%S.%f")[:-3]
print(f"[{timestamp}] ⏭️ SKIP {fname} (no data parsed)")
self.skipped_count += 1
self.processed_files.add(fname)
continue
elapsed_time_ms = (time.perf_counter() - time_start) * 1000 elapsed_time_ms = (time.perf_counter() - time_start) * 1000