processing_data_prisma.py 7.3 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128
  1. # import datetime
  2. from collections import defaultdict
  3. import pandas as pd
  4. class ProccessingPrismaCl:
  5. def __init__(self, n_data):
  6. self.n_data = n_data
  7. def period_processing_for_report(self, start_date, end_date):
  8. worktime_dict = defaultdict(list)
  9. n_vs_zero_tr_dict = defaultdict(list)
  10. event_counter_fr_4 = defaultdict(list)
  11. breaks_dict = defaultdict(list)
  12. count_rate_amp_5_fr_2 = defaultdict(list)
  13. count_rate_amp_10_fr_1 = defaultdict(list)
  14. for single_date in pd.date_range(start_date, end_date):
  15. worktime_dict['Date'].append(single_date)
  16. n_vs_zero_tr_dict['Date'].append(single_date)
  17. count_rate_amp_5_fr_2['Date'].append(single_date)
  18. count_rate_amp_10_fr_1['Date'].append(single_date)
  19. event_counter_fr_4['Date'].append(single_date)
  20. single_n_data = self.n_data[self.n_data['Date'] == single_date].reset_index(drop=True)
  21. if len(single_n_data) == 0:
  22. worktime_dict['Worktime'].append(0.00)
  23. for i in range(16):
  24. n_vs_zero_tr_dict[f'n{i + 1}'].append(0.00)
  25. count_rate_amp_5_fr_2[f'amp{i + 1}'].append(0.00)
  26. count_rate_amp_10_fr_1[f'amp{i + 1}'].append(0.00)
  27. event_counter_fr_4['Events'].append(0.00)
  28. continue
  29. break_time_dict, worktime_item = self._counting_break_time(single_n_data, delta_time_crit=600)
  30. worktime_dict['Worktime'].append(worktime_item)
  31. # print(break_time_dict)
  32. if break_time_dict:
  33. breaks_dict['Date'].extend([single_date.date()] * len(break_time_dict['StartSeconds']))
  34. breaks_dict['StartSeconds'].extend(break_time_dict['StartSeconds'])
  35. breaks_dict['EndSeconds'].extend(break_time_dict['EndSeconds'])
  36. neutron_to_zero_trigger = self._neutron_to_zero_trigger(single_n_data)
  37. for i in range(16):
  38. n_vs_zero_tr_dict[f'n{i + 1}'].append(neutron_to_zero_trigger[i])
  39. count_rate_amp_5_fr_2[f'amp{i + 1}'].append(
  40. self._set_event_counter(single_n_data, a_crit=6, freq=2)['count_rate'][i + 1])
  41. count_rate_amp_10_fr_1[f'amp{i + 1}'].append(
  42. self._set_event_counter(single_n_data, a_crit=11, freq=1)['count_rate'][i + 1])
  43. event_counter_fr_4['Events'].append(
  44. self._set_event_counter(single_n_data, a_crit=6, freq=4)['sum_events'])
  45. amp_5_fr_2_frame = self.set_amp_df(a_crit=6, freq=2)
  46. amp_10_fr_1_frame = self.set_amp_df(a_crit=11, freq=1)
  47. worktime_frame = pd.DataFrame(worktime_dict)
  48. n_vs_zero_tr_frame = pd.DataFrame(n_vs_zero_tr_dict)
  49. breaks_frame = pd.DataFrame(breaks_dict)
  50. event_counter_fr_4 = pd.DataFrame(event_counter_fr_4)
  51. count_rate_amp_5_fr_2 = pd.DataFrame(count_rate_amp_5_fr_2)
  52. count_rate_amp_10_fr_1 = pd.DataFrame(count_rate_amp_10_fr_1)
  53. for column in [f'amp{i}' for i in range(1, 17)]:
  54. count_rate_amp_5_fr_2[column] = count_rate_amp_5_fr_2[column] / worktime_frame['Worktime']
  55. count_rate_amp_10_fr_1[column] = count_rate_amp_10_fr_1[column] / worktime_frame['Worktime']
  56. return worktime_frame, breaks_frame, n_vs_zero_tr_frame, event_counter_fr_4, count_rate_amp_5_fr_2, count_rate_amp_10_fr_1, amp_5_fr_2_frame, amp_10_fr_1_frame
  57. @staticmethod
  58. def _counting_break_time(n_file, delta_time_crit):
  59. """Метод, выявляющий в n-file 5-минутки, когда кластер не работал, возвращает начальное время остановки и
  60. конечное время остановки"""
  61. time_difference = n_file['time'].diff()
  62. daily_breaks_dict = defaultdict(list)
  63. worktime_item = 24.00
  64. # print(f'{time_difference=}')
  65. for i in range(1, len(time_difference)):
  66. if time_difference[i] > delta_time_crit:
  67. daily_breaks_dict['StartSeconds'].append(n_file['time'][i - 1])
  68. daily_breaks_dict['EndSeconds'].append(n_file['time'][i])
  69. if n_file['time'][0] > delta_time_crit:
  70. daily_breaks_dict['StartSeconds'].append(0)
  71. daily_breaks_dict['EndSeconds'].append(n_file['time'][0])
  72. if n_file['time'][len(n_file['time']) - 1] < 86400 - delta_time_crit:
  73. daily_breaks_dict['StartSeconds'].append(n_file['time'][len(n_file['time']) - 1])
  74. daily_breaks_dict['EndSeconds'].append(86399)
  75. if daily_breaks_dict:
  76. worktime_item = worktime_item - round(sum(
  77. [daily_breaks_dict['EndSeconds'][index] - daily_breaks_dict['StartSeconds'][index] for index in
  78. range(len(daily_breaks_dict['StartSeconds']))]) / 3600, 2)
  79. return daily_breaks_dict, worktime_item
  80. else:
  81. return None, worktime_item
  82. @staticmethod
  83. def _neutron_to_zero_trigger(n_file):
  84. """Метод, обрабатывающий данные n-файлов ПРИЗМА-32, дающий на выходе нормированное число в событии,
  85. отобранных как нейтрон, при самозапуске"""
  86. counter_zero_tr = len(n_file[n_file['trigger'] == 0].index)
  87. zero_tr_frame = n_file[n_file['trigger'] == 0]
  88. return [round(zero_tr_frame[f'n{i}'].sum() / counter_zero_tr, 3) for i in range(1, 17)]
  89. # except ZeroDivisionError: Нужно дописать, если допустим нет нулевых триггеров
  90. @staticmethod
  91. def _set_event_counter(n_file, a_crit, freq):
  92. """Метод, обрабатывающий данные n-файлов ПРИЗМА-32, на вход подаются определенная амплитуда и количество
  93. детекторов, на которых амплитуда превышает заданную, на выходе метод возвращает словарь с параметрами:
  94. 1) суммарное число событий на кластере, подходящих под заданные условия;
  95. 2) датафрейм с амплитудами детекторов для каждого события, подходящего под заданные условия;
  96. 3) количество превышений заданной амплитуды у детектора в событиях, подходящих под заданные условия; """
  97. cluster_count_rate = {}
  98. amp_frame = n_file[[f'amp{i}' for i in range(1, 17)]]
  99. amp_frame['fr_sum'] = amp_frame.isin(range(a_crit, 520)).sum(axis=1, skipna=True) # noqa
  100. amp_frame = amp_frame[amp_frame['fr_sum'] >= freq].reset_index(drop=True)
  101. for i in range(1, 17):
  102. cluster_count_rate[i] = len(amp_frame[amp_frame[f'amp{i}'] >= a_crit])
  103. return {'sum_events': len(amp_frame.index),
  104. 'count_rate': cluster_count_rate}
  105. def set_amp_df(self, a_crit, freq):
  106. amp_frame = self.n_data[[f'amp{i}' for i in range(1, 17)]]
  107. amp_frame['fr_sum'] = amp_frame.isin(range(a_crit, 520)).sum(axis=1, skipna=True) # noqa
  108. amp_frame = amp_frame[amp_frame['fr_sum'] >= freq].reset_index(drop=True)
  109. return amp_frame[[f'amp{i}' for i in range(1, 17)]]