.csv parser implemented but csv processing still not works
This commit is contained in:
214
main.py
Normal file → Executable file
214
main.py
Normal file → Executable file
@ -1,3 +1,4 @@
|
|||||||
|
#!/usr/bin/python3
|
||||||
import os
|
import os
|
||||||
import time
|
import time
|
||||||
import numpy as np
|
import numpy as np
|
||||||
@ -15,7 +16,8 @@ import queue
|
|||||||
# ================================================================================
|
# ================================================================================
|
||||||
# ПАРАМЕТРЫ И КОНСТАНТЫ
|
# ПАРАМЕТРЫ И КОНСТАНТЫ
|
||||||
# ================================================================================
|
# ================================================================================
|
||||||
data_dir = r"D:\data"
|
#data_dir = r"D:\data"
|
||||||
|
data_dir = "./data"
|
||||||
PeriodIntegrate = 2
|
PeriodIntegrate = 2
|
||||||
pontInOneFqChange = 86
|
pontInOneFqChange = 86
|
||||||
|
|
||||||
@ -41,6 +43,7 @@ MAX_PROCESSING_TIME_MS = 250
|
|||||||
DATA_TYPE_RAW = "RAW"
|
DATA_TYPE_RAW = "RAW"
|
||||||
DATA_TYPE_SYNC_DET = "SYNC_DET"
|
DATA_TYPE_SYNC_DET = "SYNC_DET"
|
||||||
DATA_TYPE_FOURIER = "FOURIER"
|
DATA_TYPE_FOURIER = "FOURIER"
|
||||||
|
DATA_TYPE_HEX = "HEX"
|
||||||
|
|
||||||
# Режим обработки FOURIER файлов
|
# Режим обработки FOURIER файлов
|
||||||
FOURIER_MODE = 'collapse_mean'
|
FOURIER_MODE = 'collapse_mean'
|
||||||
@ -61,19 +64,22 @@ DEFAULT_FILE_POLL_INTERVAL_MS = 100 # 100 мс
|
|||||||
# ================================================================================
|
# ================================================================================
|
||||||
|
|
||||||
def detect_data_type(first_line):
|
def detect_data_type(first_line):
|
||||||
"""Определяет тип данных по первой строке файла."""
|
"""Определяет тип данных по первой строке файла.
|
||||||
|
|
||||||
|
Логика: если первая строка начинается с ключевого слова RAW/SYNC_DET/FOURIER/FFT,
|
||||||
|
считаем соответствующий тип. Иначе — HEX.
|
||||||
|
"""
|
||||||
try:
|
try:
|
||||||
first_line = first_line.strip()
|
up = first_line.strip().upper()
|
||||||
if "RAW" in first_line.upper():
|
if up.startswith('RAW'):
|
||||||
return DATA_TYPE_RAW
|
return DATA_TYPE_RAW
|
||||||
elif "SYNC_DET" in first_line.upper() or "SYNC" in first_line.upper():
|
if up.startswith('SYNC_DET') or up.startswith('SYNC DET'):
|
||||||
return DATA_TYPE_SYNC_DET
|
return DATA_TYPE_SYNC_DET
|
||||||
elif "FOURIER" in first_line.upper() or "FFT" in first_line.upper():
|
if up.startswith('FOURIER') or up.startswith('FFT'):
|
||||||
return DATA_TYPE_FOURIER
|
return DATA_TYPE_FOURIER
|
||||||
else:
|
return DATA_TYPE_HEX
|
||||||
return DATA_TYPE_RAW
|
except Exception:
|
||||||
except:
|
return DATA_TYPE_HEX
|
||||||
return DATA_TYPE_RAW
|
|
||||||
|
|
||||||
|
|
||||||
def resize_1d_interpolate(data, target_size):
|
def resize_1d_interpolate(data, target_size):
|
||||||
@ -113,14 +119,123 @@ def load_data_with_type(filename):
|
|||||||
with open(filename, 'r') as f:
|
with open(filename, 'r') as f:
|
||||||
first_line = f.readline()
|
first_line = f.readline()
|
||||||
|
|
||||||
data_type = detect_data_type(first_line)
|
detected_type = detect_data_type(first_line)
|
||||||
|
|
||||||
|
if detected_type != DATA_TYPE_HEX:
|
||||||
try:
|
try:
|
||||||
data = np.loadtxt(filename, skiprows=1)
|
data = np.loadtxt(filename, skiprows=1)
|
||||||
except:
|
except:
|
||||||
data = np.loadtxt(filename)
|
data = np.loadtxt(filename)
|
||||||
|
return detected_type, data
|
||||||
|
|
||||||
return data_type, data
|
# HEX формат: строки вида 0xAABBBBBB, где AA — тип, BBBBBB — int24_t
|
||||||
|
return parse_hex_file(filename)
|
||||||
|
|
||||||
|
|
||||||
|
def parse_hex_file(filename):
|
||||||
|
"""Парсит HEX формат с разделением по FE и мапит к RAW/SYNC_DET/FOURIER.
|
||||||
|
|
||||||
|
Возвращает (data_type, data), где data может быть:
|
||||||
|
- numpy.ndarray (1D) для одного сегмента
|
||||||
|
- list[numpy.ndarray] для нескольких сегментов (используется для FOURIER, а также RAW/SYNC_DET)
|
||||||
|
"""
|
||||||
|
|
||||||
|
def to_int24(v):
|
||||||
|
x = int(v, 16)
|
||||||
|
if x & 0x800000:
|
||||||
|
x -= 0x1000000
|
||||||
|
return float(x)
|
||||||
|
|
||||||
|
# Текущий накапливаемый сегмент
|
||||||
|
cur = {"D0": [], "F0": [], "F1": [], "F2": [], "F3": [], "F4": []}
|
||||||
|
# Списки сегментов по типам данных
|
||||||
|
seg_raw = []
|
||||||
|
seg_sync = []
|
||||||
|
seg_fourier = []
|
||||||
|
|
||||||
|
def finalize_segment():
|
||||||
|
nonlocal cur
|
||||||
|
# Приоритет выбора, что считать сегментом
|
||||||
|
if cur["F4"]:
|
||||||
|
seg_fourier.append(np.asarray(cur["F4"], dtype=float))
|
||||||
|
elif cur["F3"]:
|
||||||
|
arr = np.asarray(cur["F3"], dtype=float)
|
||||||
|
seg_fourier.append(np.sqrt(np.maximum(0.0, arr)))
|
||||||
|
elif cur["F1"] and cur["F2"] and len(cur["F1"]) == len(cur["F2"]):
|
||||||
|
re = np.asarray(cur["F1"], dtype=float)
|
||||||
|
im = np.asarray(cur["F2"], dtype=float)
|
||||||
|
seg_fourier.append(np.sqrt(re * re + im * im))
|
||||||
|
elif cur["F0"]:
|
||||||
|
seg_sync.append(np.asarray(cur["F0"], dtype=float))
|
||||||
|
elif cur["D0"]:
|
||||||
|
seg_raw.append(np.asarray(cur["D0"], dtype=float))
|
||||||
|
# Сброс
|
||||||
|
cur = {"D0": [], "F0": [], "F1": [], "F2": [], "F3": [], "F4": []}
|
||||||
|
|
||||||
|
with open(filename, 'r') as f:
|
||||||
|
for line in f:
|
||||||
|
s = line.strip()
|
||||||
|
if not s:
|
||||||
|
continue
|
||||||
|
# Требование: учитывать только строки, начинающиеся с 0x/0X
|
||||||
|
if not (s.startswith('0x') or s.startswith('0X')):
|
||||||
|
continue
|
||||||
|
h = s[2:]
|
||||||
|
h = ''.join(ch for ch in h if ch in '0123456789abcdefABCDEF')
|
||||||
|
if len(h) < 2:
|
||||||
|
continue
|
||||||
|
t_byte = h[:2].upper()
|
||||||
|
|
||||||
|
# FE — завершить текущий сегмент
|
||||||
|
if t_byte == 'FE':
|
||||||
|
finalize_segment()
|
||||||
|
continue
|
||||||
|
|
||||||
|
# E0..E9 — игнор
|
||||||
|
if t_byte.startswith('E') and len(t_byte) == 2 and t_byte[1] in '0123456789':
|
||||||
|
continue
|
||||||
|
|
||||||
|
# 00 — цифровые биты, пока пропускаем
|
||||||
|
if t_byte == '00':
|
||||||
|
continue
|
||||||
|
|
||||||
|
if len(h) < 8:
|
||||||
|
continue
|
||||||
|
# Значение 24 бита
|
||||||
|
val_hex = h[2:8]
|
||||||
|
try:
|
||||||
|
value = to_int24(val_hex)
|
||||||
|
except Exception:
|
||||||
|
continue
|
||||||
|
|
||||||
|
if t_byte == 'D0':
|
||||||
|
cur['D0'].append(value)
|
||||||
|
elif t_byte == 'F0':
|
||||||
|
cur['F0'].append(value)
|
||||||
|
elif t_byte == 'F1':
|
||||||
|
cur['F1'].append(value)
|
||||||
|
elif t_byte == 'F2':
|
||||||
|
cur['F2'].append(value)
|
||||||
|
elif t_byte == 'F3':
|
||||||
|
cur['F3'].append(value)
|
||||||
|
elif t_byte == 'F4':
|
||||||
|
cur['F4'].append(value)
|
||||||
|
else:
|
||||||
|
# Неизвестные — пропускаем
|
||||||
|
continue
|
||||||
|
|
||||||
|
# Финализируем хвост
|
||||||
|
finalize_segment()
|
||||||
|
|
||||||
|
if seg_fourier:
|
||||||
|
return DATA_TYPE_FOURIER, seg_fourier
|
||||||
|
if seg_sync:
|
||||||
|
# Если несколько, вернём список сегментов
|
||||||
|
return DATA_TYPE_SYNC_DET, seg_sync if len(seg_sync) > 1 else seg_sync[0]
|
||||||
|
if seg_raw:
|
||||||
|
return DATA_TYPE_RAW, seg_raw if len(seg_raw) > 1 else seg_raw[0]
|
||||||
|
|
||||||
|
return DATA_TYPE_RAW, np.asarray([], dtype=float)
|
||||||
|
|
||||||
|
|
||||||
def get_file_time_with_milliseconds(filename):
|
def get_file_time_with_milliseconds(filename):
|
||||||
@ -164,8 +279,10 @@ class DataAnalyzerApp:
|
|||||||
os.chdir(self.data_dir)
|
os.chdir(self.data_dir)
|
||||||
|
|
||||||
# Инициализируем с существующими файлами
|
# Инициализируем с существующими файлами
|
||||||
existing_files = sorted([f for f in os.listdir() if f.endswith('.txt') or
|
existing_files = sorted([
|
||||||
f.endswith('.txt1') or f.endswith('.txt2')])
|
f for f in os.listdir()
|
||||||
|
if f.lower().endswith(('.txt', '.txt1', '.txt2', '.csv'))
|
||||||
|
])
|
||||||
self.processed_files = set(existing_files)
|
self.processed_files = set(existing_files)
|
||||||
|
|
||||||
if existing_files:
|
if existing_files:
|
||||||
@ -800,19 +917,30 @@ class DataAnalyzerApp:
|
|||||||
return True, None
|
return True, None
|
||||||
|
|
||||||
def process_fourier_data(self, A, original_size):
|
def process_fourier_data(self, A, original_size):
|
||||||
"""Обработка FOURIER БЕЗ интерполяции."""
|
"""Обработка FOURIER без интерполяции. Поддерживает несколько сегментов."""
|
||||||
if A.ndim == 1:
|
|
||||||
A = A.reshape(-1, 1)
|
|
||||||
|
|
||||||
A_truncated = A[:, 0].copy()
|
|
||||||
columns_to_add = []
|
columns_to_add = []
|
||||||
|
|
||||||
if FOURIER_MODE == 'collapse_mean':
|
# A может быть: list[np.ndarray] (из HEX) или numpy.ndarray
|
||||||
columns_to_add.append(A_truncated.astype(float))
|
if isinstance(A, list):
|
||||||
elif FOURIER_MODE == 'expand':
|
for seg in A:
|
||||||
columns_to_add.append(A_truncated.astype(float))
|
col = np.asarray(seg, dtype=float)
|
||||||
elif FOURIER_MODE == 'first':
|
columns_to_add.append(col)
|
||||||
columns_to_add.append(A_truncated.astype(float))
|
return True, columns_to_add
|
||||||
|
|
||||||
|
if A.ndim == 1:
|
||||||
|
columns_to_add.append(A.astype(float))
|
||||||
|
return True, columns_to_add
|
||||||
|
|
||||||
|
# Если A двумерный: считаем колонками столбцы или строки — выбираем более длинное измерение как длину спектра
|
||||||
|
if A.ndim == 2:
|
||||||
|
rows, cols = A.shape
|
||||||
|
if rows >= cols:
|
||||||
|
for i in range(cols):
|
||||||
|
columns_to_add.append(A[:, i].astype(float))
|
||||||
|
else:
|
||||||
|
for i in range(rows):
|
||||||
|
columns_to_add.append(A[i, :].astype(float))
|
||||||
|
return True, columns_to_add
|
||||||
|
|
||||||
return True, columns_to_add
|
return True, columns_to_add
|
||||||
|
|
||||||
@ -978,8 +1106,25 @@ class DataAnalyzerApp:
|
|||||||
add_to_bscan = False
|
add_to_bscan = False
|
||||||
|
|
||||||
if data_type == DATA_TYPE_RAW:
|
if data_type == DATA_TYPE_RAW:
|
||||||
|
# Может прийти список сегментов (HEX с FE)
|
||||||
|
if isinstance(A, list):
|
||||||
|
for i, seg in enumerate(A):
|
||||||
|
add_to_bscan, bscan_col = self.process_raw_data(np.asarray(seg), len(seg))
|
||||||
|
if add_to_bscan and bscan_col is not None:
|
||||||
|
col_time = file_time + timedelta(milliseconds=i * 10)
|
||||||
|
self.bscan_queue.put((bscan_col, col_time, DATA_TYPE_RAW))
|
||||||
|
add_to_bscan, bscan_col = False, None
|
||||||
|
else:
|
||||||
add_to_bscan, bscan_col = self.process_raw_data(A, original_size)
|
add_to_bscan, bscan_col = self.process_raw_data(A, original_size)
|
||||||
elif data_type == DATA_TYPE_SYNC_DET:
|
elif data_type == DATA_TYPE_SYNC_DET:
|
||||||
|
if isinstance(A, list):
|
||||||
|
for i, seg in enumerate(A):
|
||||||
|
add_to_bscan, bscan_col = self.process_sync_det_data(np.asarray(seg), len(seg))
|
||||||
|
if add_to_bscan and bscan_col is not None:
|
||||||
|
col_time = file_time + timedelta(milliseconds=i * 10)
|
||||||
|
self.bscan_queue.put((bscan_col, col_time, DATA_TYPE_SYNC_DET))
|
||||||
|
add_to_bscan, bscan_col = False, None
|
||||||
|
else:
|
||||||
add_to_bscan, bscan_col = self.process_sync_det_data(A, original_size)
|
add_to_bscan, bscan_col = self.process_sync_det_data(A, original_size)
|
||||||
elif data_type == DATA_TYPE_FOURIER:
|
elif data_type == DATA_TYPE_FOURIER:
|
||||||
add_to_bscan, columns = self.process_fourier_data(A, original_size)
|
add_to_bscan, columns = self.process_fourier_data(A, original_size)
|
||||||
@ -1023,17 +1168,32 @@ class DataAnalyzerApp:
|
|||||||
|
|
||||||
def process_files(self):
|
def process_files(self):
|
||||||
"""Обработка файлов в цикле."""
|
"""Обработка файлов в цикле."""
|
||||||
files = sorted([f for f in os.listdir() if f.endswith('.txt') or
|
files = sorted([f for f in os.listdir() if f.endswith('.csv') or
|
||||||
f.endswith('.txt1') or f.endswith('.txt2')])
|
f.endswith('.txt1') or f.endswith('.txt2') or f.endswith('.csv')])
|
||||||
|
|
||||||
new_files = [f for f in files if f not in self.processed_files]
|
new_files = [f for f in files if f not in self.processed_files]
|
||||||
|
print("new files:", new_files, files)
|
||||||
|
|
||||||
for fname in new_files:
|
for fname in new_files:
|
||||||
time_start = time.perf_counter()
|
time_start = time.perf_counter()
|
||||||
|
|
||||||
try:
|
try:
|
||||||
data_type, A = load_data_with_type(fname)
|
data_type, A = load_data_with_type(fname)
|
||||||
|
# Поддержка списка сегментов (HEX с FE)
|
||||||
|
if isinstance(A, list):
|
||||||
|
original_size = len(A[0]) if len(A) > 0 else 0
|
||||||
|
elif isinstance(A, np.ndarray):
|
||||||
original_size = A.shape[0]
|
original_size = A.shape[0]
|
||||||
|
else:
|
||||||
|
original_size = 0
|
||||||
|
|
||||||
|
# Если после парсинга данных нет — пропускаем файл
|
||||||
|
if (isinstance(A, list) and len(A) == 0) or (isinstance(A, np.ndarray) and A.size == 0):
|
||||||
|
timestamp = datetime.now().strftime("%H:%M:%S.%f")[:-3]
|
||||||
|
print(f"[{timestamp}] ⏭️ SKIP {fname} (no data parsed)")
|
||||||
|
self.skipped_count += 1
|
||||||
|
self.processed_files.add(fname)
|
||||||
|
continue
|
||||||
|
|
||||||
elapsed_time_ms = (time.perf_counter() - time_start) * 1000
|
elapsed_time_ms = (time.perf_counter() - time_start) * 1000
|
||||||
|
|
||||||
|
|||||||
Reference in New Issue
Block a user