погрешность дозиметра можно определить методом

Ответы на вопросы: Погрешность измерения дозиметра?

Многие покупатели поднимают вопрос точности измерения параметров излучения дозиметрами. В этой статье описаны некоторые «подводные камни» связанные с погрешностью профессиональных дозиметров и как по ГОСТам она обеспечена:

Погрешность измерения дозиметра и как она обеспечена по ГОСТам.

Одной из наиболее важных характеристик любого измерительного прибора, в том числе и дозиметра-радиометра, является погрешность измерения, выражается она в точности показаний относительно какого-то абсолюта или эталона. Но если, например, для вольтметра, точность показаний в бытовых условиях проверить легко хотя бы относительно других вольтметров, задав на источнике питания какое-то напряжение в любой точке диапазона измерения вольтметра, то с прибором радиационного контроля все значительно сложнее. И проверить отклонение показаний дозиметра можно только при наличии радиоактивных источников, подвергая здоровье опасности. Иными словами проверка погрешностей дозиметра-радиометра осуществляется только при испытаниях на утверждение типа и первичной и периодической поверках прибора, которые осуществляются по ГОСТам, МИ и ТУ на утвержденные типы дозиметров в аккредитованных лабораториях. Например существует ГОСТ 25935-83, ГОСТ 8.040-84 и другие, в которых описаны требования на соответствие погрешности измерения заявленной. (Примечание: Так как поверку осуществляют в основном для профессиональных приборов, для бытовых дозиметров погрешность проверяется только при первичных испытаниях для определенной модели если такие проводились, а у любого серийного экземпляра после испытаний, она может сколь угодно отличаться от заявленной. Именно по этому бытовые дозиметры, не зарегистрированные в Реестре утвержденных типов измерения, могут использоваться только как индикаторы радиоактивности).

Согласно этих ГОСТов проверка основной относительной погрешности измерения проводится в нескольких точках, это может быть одна, две, три и т.д. в зависимости от технических условий на прибор (например согласно ГОСТ 8.040-84 «при подборе источников рекомендуют интервалы 0.1-0.3; 0.4-0.6; 0.7-0.9 номинального значения диапазона. »). Соответствие заявленной погрешности в этих точках является достаточным условием для того, чтобы дозиметр-радиометр прошел поверку или испытания по этому параметру, иными словами в других точках диапазона измеряемой величины погрешность согласно ГОСТов не проверяется и может выходить за пределы заявленной, в том числе и в близких к фоновым, где для счетчиков Гейгера-Мюллера начинает огромное значение влиять статистическая погрешность, которая является компонентом основной. И если, например, открыть методику поверки на конкретный прибор можно увидеть в каких точках диапазона измеряемой величины была проведена поверка.

Теперь становится понятным, что в точках порога принятия решения о загрязнении согласно разным инструкциям и методикам (например инструкции ЦБ РФ №131-И) погрешность при поверке или испытаниях не проверяют, то есть ее никогда никто не проверял. И любые заявления продавца, что она в этих точках соответствует заявленной беспочвенны. Так как чаще всего эти пороги близки к фоновым значениям, где огромную часть погрешности составляет статистическая погрешность согласно ГОСТ 8.207-76 и математической модели дозиметров-радиометров, где описано какую колоссальную ошибку может она давать. И чтобы, минимизировать эту ошибку необходимо не сравнивать заявленные цифры погрешности, так как они проверяются, когда-либо в нескольких точках диапазона, а не во всем диапазоне измеряемой величины в том числе и на границах, а сравнить возможности счетчиков.

Может ли благодаря увеличенному времени измерения дозиметр выдать результат точнее?

Многие производители дозиметров-радиометров в своих приборах со слабыми счетчиками используют неограниченное накопление статистики измерения и заявляют о «постоянном во времени уточнении результата». Возникает вопрос:

В статье «Как не обмануться при выборе дозиметра» мы рассматривали ситуацию, чрезвычайно малого времени измерения для обеспечения точности. Теперь мы рассмотрим ситуацию, избыточно большого времени измерения, когда его дальнейший рост на погрешность измерения уже никак не влияет.

Согласно ГОСТ 8.207-76 оценку суммарного среднего квадратического отклонения вычисляют по формуле:

погрешность дозиметра можно определить методом

Где погрешность дозиметра можно определить методом— это и есть статистическая составляющая, стремящаяся к нулю при бесконечно долгом измерении,

погрешность дозиметра можно определить методом

-это сумма квадратов границ неучтенных систематических погрешностей делённая на 3, то есть величина никак не зависящая от времени или статистики измерения.

Чем обусловлены эти погрешности, независящие от времени? В основном разбросом параметров счетчика, цепей питания и обработки, также климатических условий при измерении, также погрешностями установки калибровки прибора и т.д. В качестве метафоры можно привезти утрированный сценарий увеличения количества повторов измерения ученической линейкой длины стола с целью проведения измерения с точностью до Ангстрем.

Также в ГОСТ 8.207-76 написано: «. 5.1. Если

погрешность дозиметра можно определить методом, то

случайной погрешностью по сравнению с систематическими пренебрегают. »

То есть когда систематическая, не зависящая от времени измерения, погрешность превышает более чем в 8 раз случайную, зависящую от времени, последней можно пренебречь.

Исходя из вышесказанного после того, как дозиметр в процессе измерения накопил достаточную статистику, то есть снизил случайную погрешность по сравнению с систематической в 8 и более раз, далее уточнять результат бесполезно — погрешность обусловлена только систематическими, не зависящими от времени измерения, погрешностями.

Теперь необходимо оценить какова доля систематической погрешности в основной относительной погрешности. Основная относительная погрешность проверяется, во время испытаний на утверждение типа (для типа средств измерений) и во время первичной и периодических поверках (для конкретного экземпляра дозиметра), согласно ГОСТ 8.040-84 рекомендованы «интервалы 0.1-0.3; 0.4-0.6; 0.7-0.9 номинального значения диапазона. », могут также быть использованы в качестве поверочных точек источники в интервале 0.7-0.9 каждого порядка диапазона, то есть минимум в несколько раз превышающие значения фона и порогов принятия решения о загрязнении согласно разным инструкциям и методикам (например инструкции ЦБ РФ №131-И). В этих точках скорость счета уже достаточно высока, для того чтобы, случайная погрешность была в несколько раз меньше основной относительной погрешности, то есть основная относительная погрешность обусловлена в основном систематической, не зависящей от времени, погрешностью.

Дата добавления: 2018-06-01 ; просмотров: 288 ; Мы поможем в написании вашей работы!

Источник

Проверка дозиметра на работоспособность

Дозиметры, как и другие виды измерительного оборудования, выполняют измерения с конкретной точностью, которая указана в техническом паспорте или руководстве по эксплуатации прибора. На указанных в документации показателях и основывается необходимость выполнения проверки дозиметров.

Особенности проведения проверки

Дозиметры – устройства, используемые для контроля уровня радиационного фона. По техническим стандартам и регламентам необходимо каждый год проверять их работоспособность, соответствие параметрам, которые регламентированы ГОСТами. Оптимальный вариант – обращение в специализированные компании, которые осуществляют проверку дозиметров рентгеновского излучения согласно методам, представленные в ГОСТе 8.013-72. Специалисты определяют текущие характеристики оборудования, их соответствие заводской документации.

Профессиональная проверка бытовых дозиметров включает в себя несколько этапов. Основные из них:

После проведения проверочных мероприятий сотрудники специализированной компании должны составить протокол, на основании которого выдается решение о результатах проверенной проверки. Если показатели в норме, то заказчик получает сертификат установленного образца, который действителен в течение межпроверочного интервала (12 месяцев).

Типы проверок

При эксплуатации дозиметры и радиометры подвергаются различным проверкам. Основными типами являются:

Процедура проверка дозиметров осуществляется профильными специалистами с использованием специализированного оборудования и применением эталонов. Результаты проведенного исследования прописываются в журнале, на основе чего принимается решение о получении свидетельства государственного образца о проверке устройства.

Как проверить дозиметр в домашних условиях?

Существует множество мест, где можно проверить работу дозиметра и других устройств для измерения радиации своими руками – на улице, на предприятии, в общественных помещениях, в домашних условиях. Можно выделить следующие способы:

Если дозиметр способен определить тип источника излучения, то уже можно говорить о том, что он является условно точным. Следующим показателям в бытовых приборах можно доверять:

Достоверность показаний прибора зависит от имеющейся статистической погрешности, количества регистраций событий, времени измерения. Длительность проводимого исследования крайне важна, чтобы прибор смог накопить достаточное число взаимодействий с детектором. Если датчик в дозиметре отличается повышенной чувствительностью, то он зарегистрирует максимальное количество событий за определенный временной промежуток.

Если положить два одинаковых дозиметра рядом, то выведенные ими показания в режимах «Поиск» и «Измерения» в ряде случаев будут различаться. Это связано с тем, что датчики в одинаковые временные промежутки взаимодействуют с собственным персональным набором событий, что напрямую сказывается на итоговых результатах проверки. В режиме «Измерение», как только будет достигнута 15%-ная статистическая погрешность, показатели дозиметров будут одинаковы только в ее пределах. Иными словами, полученные значения в 90 мкР/ч и 105 мкР/ч будут считаться одинаковыми результатами.

Погрешности

В документах указывается основная относительная погрешность (при средних климатических условиях использования устройства). Например, нормальными температурными условиями эксплуатации считается +20о С. При увеличении или снижении температуры, уменьшении напряжения электропитания возникает дополнительная погрешность. Поэтому в сложных условиях эксплуатации дозиметра демонстрируемые им показатели будут не соответствовать реальным.

Если есть точные данные об относительной погрешности, то без проблем вычисляется абсолютное значение ошибки или диапазон, в который входит точный результат измерения. В ситуациях, когда бытовой дозиметр выдает показатель в 30 мкЗв/ч, а погрешность устройства составляет 20% по гамма-излучению, то можно сказать, что истинное значение находится в пределах от 24 до 36 мкЗв/ч. При индивидуальных измерениях, не требующих высокой точности, подобное является вполне нормальной практикой.

Помимо относительной и абсолютной также в сфере дозиметрических измерений применяется статистическая погрешности. Ее смысл состоит в том, что при дефиците имеющихся измерительных данных (к примеру, при замере радиационного фона) точность устройства значительно снижается. Поэтому она не может соответствовать описанной в документации основной относительной погрешности. Если дозиметр редко регистрирует радиоактивные частицы, то требуется определенный временной промежуток, чтобы накопить нужное количество сведений. Если времени необходимо много, то пользователь, не дождавшись завершения измерительного цикла, снимает грубые полученные показания. В этой ситуации точность прибора пренебрегается. Современные дозиметры со интегрированными микроконтроллерами позволяют:

Если частицы и фотоны облучают датчик с высокой частотой, то длительность измерительного процесса существенно снижается. Поэтому формируется незначительная статистическая погрешность, и пользователь получает точный результат измерений.

Источник

Ответы на вопросы: Погрешность измерения дозиметра?

Как не обмануться при выборе дозиметра-радиометра?

погрешность дозиметра можно определить методом

Как не обмануться при выборе дозиметра-радиометра? Как выбрать дозиметр-радиометр ориентируясь не на рекламные заявления производителя, а на выбранный для изготовления его прибора детекторный счетчик?

Как не обмануться при выборе дозиметра-радиометра?

Как выбрать дозиметр-радиометр ориентируясь не на рекламные заявления производителя, а на выбранный для изготовления его прибора детекторный счетчик? Дозиметры-радиометры, как правило, приобретают для контроля окружающей среды с учетом требований санитарных норм или других нормативных документов. Эти нормирующие документы, с годами постоянно ужесточают требования к чистоте среды, что в свою очередь вынуждают производителя искать технические решения позволяющие реализовать предельно возможные характеристики выпускаемых дозиметров-радиометров, чтобы обеспечить должный контроль окружающей обстановки.

Одной из самых важных технических характеристик является точность измерения. При этом нельзя ожидать результатов долгими минутами и после этого производить уточняющие дополнительные расчеты. Современные приборы должны освобождать пользователя от этих лишних нагрузок.

Поскольку в основном у таких приборов технические характеристики определяются выбранным детекторным счетчиком, очень важно узнать какой счетчик был применен в приборе. Счетчики Гейгера-Мюллера хорошо чувствительные к бета-излучению можно разделить на 2 группы: с малыми скоростями счета на фоне, например Бета-1, и с относительно высокими скоростями счета, например СБТ-10А. В общем-то скорость счета на фоне коррелирует с чувствительностью счетчика к ионизирующему излучению. Основной проблемой малочувствительного счетчика является то, что он выдает мало информации в единицу времени для дальнейшей обработки. Чтобы получить достаточный объем этой информации, надо ждать её минутами. Зато такие счетчики дешевле.

Некоторые производители, желая получить конкурентное преимущество низкой цены, выбирают дешевые, но малочувствительные счетчики, например Бета-1. Тем не менее указывают в своих руководствах по эксплуатации прибора с такими счетчиками низкую погрешность измерений при относительно коротком времени измерения для получения такой низкой погрешности. Это входит в явное противоречие с методикой расчета такой погрешности, которая широко используется в ГОСТах и требуется ГОСТами. Ниже предлагается проверить в каком же соотношении находится скорость счета детектора и время, в течении которого он может выдать достаточно информации для обработки, чтобы обеспечить приемлемый по точности получаемый результат измерения.

1. Используемые термины и определения.

1.1 Статистическая погрешность и доверительный уровень.

Под этим термином понимают погрешность оценки измеряемой величины по итогам статистического анализа результатов измерений.

Поскольку истинное значение измеряемой величины нам не может быть известно, то в качестве результата предоставляется оценка этого значения (среднее значение некоторого «распределения случайной величины»), и «коридор» отклонений от этой оценки (дисперсия). С определённой вероятностью, называемой доверительной вероятностью (уровнем доверия) мы можем утверждать, что истинное значение измеряемой величины попадёт в этот коридор.

Например, если в результате измерения некоторой величины X мы получили:

X= 20 ± 5 (P=95%), то это значит, что с доверительной вероятностью 95% истинное значение величины находится в промежутке от 15 до 25 (от 20-5=15 до 20+5=25). Числа в данном примере выбраны исключительно для иллюстрации смысла записей.

Как видно, результат представлен средним значением и шириной коридора, то есть отклонением от среднего значения ( погрешность дозиметра можно определить методом± d, в нашем примере погрешность дозиметра можно определить методом= 20, d= 5 ). Часто этот результат представляют и в иной форме, выражая отклонение от среднего не в абсолютных, а в относительных единицах. Тогда результат представляют в виде погрешность дозиметра можно определить методом± ΔX, где

погрешность дозиметра можно определить методом

ΔX— относительное отклонение, выраженное в процентах.

В нашем примере это запишется как X= 20 ± 25 % (P=95%).

Величину ΔX и называют статистической погрешностью измерения.

Важно, что величина погрешности зависит от вида распределения вероятности измеряемой величины и от принятого уровня доверия. В частности, при отсутствии задания уровня доверия на практике иногда предполагают прямоугольность распределения, см. например, приложение В в [2].

1.2 Виды распределений.

Однако, на практике чаще всего используются два типовых распределения – нормальное распределение Гаусса (в непрерывном случае) и распределение Пуассона (в дискретном случае). Вообще говоря, распределение Пуассона можно считать дискретным аналогом распределения Гаусса. Известно, что при достаточно большом количестве измерений распределение Пуассона практически неотличимо от определённого типа распределения Гаусса, в связи с чем можно свободно использовать формулы распределения Гаусса для подсчёта соответствующих характеристик распределения Пуассона.

Подробнее об этих распределениях можно посмотреть, например, в [3], но нам достаточно знать, что непрерывное распределение Гаусса определяется двумя параметрами – матожиданием Mи дисперсией σ², а распределение Пуассона определяется одним единственным параметром k, имеющим смысл среднего числа появлений события за время T(отсюда очевидна его важность в дозиметрии и анализе работы счетчика попаданий частиц).

Как уже отмечалось выше, при большом значении определяющего параметра в законе Пуассона он практически точно совпадает с определённым типом закона Гаусса, а именно с распределением Гаусса, у которого М = k, σ = погрешность дозиметра можно определить методом(то есть дисперсия и среднее равны параметру k).

Это совпадение практически имеет место при k> 20, иными словами, в рассматриваемом нами случае вполне можно пользоваться этим приближением.

1.3 Доверительная вероятность и интервал для распределения Гаусса.

Из курса теории вероятностей и математической статистики хорошо известно так называемое «правило одной, двух и трёх сигм», суть которого в следующем:

а) Вероятность того, что отклонение нормально распределенной случайной величины от математического ожидания M не превышает величины σ, равна 0,683

б) Вероятность того, что отклонение нормально распределенной случайной величины от математического ожиданияM не превышает величины , равна 0,954

в) Вероятность того, что отклонение нормально распределенной случайной величины от математического ожидания M не превышает величины , равна 0,997

Эти утверждения можно переформулировать следующим образом:

Нормально распределённая случайная величина X попадёт в интервал M ± σ с доверительной вероятностью 68,3 %

в интервал M ± с доверительной вероятностью 95,4 %

в интервал M ± с доверительной вероятностью 99,7 %

Это и есть зависимость статистической ошибки от доверительной вероятности, о которой было сказано выше.

2. Оценка статистической погрешности показаний дозиметра

2.1 Доверительная вероятность и относительная статистическая ошибка для распределения Пуассона.

Вспомним (п.1.2), что в случае достаточно большого значения k распределение Пуассона очень хорошо аппроксимируется распределением Гаусса с M= k, σ =погрешность дозиметра можно определить методом, а также определение относительной статистической ошибки (п.1.1) как

погрешность дозиметра можно определить методом

В нашем случае роль погрешность дозиметра можно определить методомиграет значение M, а роль ширины коридора, в зависимости от уровня доверия, σ, или . Перепишем последнюю формулировку «правила сигм» из пункта 1.3 с учетом этих соотношений и того, что

погрешность дозиметра можно определить методом

Распределённая по Пуассону случайная величина X попадёт:

в интервал k ± 1/погрешность дозиметра можно определить методом·100% с доверительной вероятностью 68,3 %,

в интервал k ± 2/погрешность дозиметра можно определить методом·100% с доверительной вероятностью 95,4 %,

в интервал k ± 3/погрешность дозиметра можно определить методом·100% с доверительной вероятностью 99,7 %.

Это согласуется и с определением статистической ошибки, приведённым в [4].

2.2 Взаимосвязь времени измерения с доверительной вероятностью и статистической ошибкой.

Исходя из п.2.1, при доверительной вероятности 68% статистическая ошибка составит 1/ погрешность дозиметра можно определить методом·100%, а при доверительной вероятности 95% она составит 2/ погрешность дозиметра можно определить методом·100%, то есть вдвое больше, если сохранить то же самое значениеk. Однако, значение относительной погрешности можно сохранить, увеличив доверительную вероятность с 68% до 95%, но тогда нужно увеличить величину погрешность дозиметра можно определить методом в 2 раза, а само k, соответственно, в 4 раза.

Поскольку k = n·t, где n– среднее число импульсов в секунду, а t– время измерения, то при заданной скорости счета величину kможно увеличить, только увеличив соответствующее время измерения. Так же решается и обратная задача, когда за счет снижения уровня доверия с 95% до 68%, сохраняя статистическую ошибку можно уменьшить такой важный для пользователя параметр как время измерения в 4 раза.

Приведем графики зависимостей необходимого времени измерения tпри заданной доверительной вероятности 95 %для двух значений статистической ошибки 15 % и 25 %от средней скорости счета n.

погрешность дозиметра можно определить методом

Графики зависимостей необходимого времени измерения t при заданной доверительной вероятности 95% для двух значений статистической ошибки 15% (голубой) и 25% (зеленый) от средней скорости счета n.

2.3 Сравнение математических моделей дозиметров собранных на счетчиках Бета-1 и СБТ-10А.

Большинство замеров в режиме поиска локализации и обнаружения радиоактивного загрязнения производится при низких скоростях счета, а для выявления над фоном малого превышения необходимо зарегистрировать то же количество импульсов, что и при высоких скоростях счета. И соответственно необходимо увеличивать время каждого замера.

Например, сравним 2 счетчика Бета-1 и СБТ-10А, у первого на фоне средняя скорость счета 20 имп./мин, у СБТ-10А 160 имп./мин. (эти данные были взяты экспериментальным образом, их элементарно проверить, подсчитав количество щелчков в минуту). На приведенном выше графике отложим эти значения:

погрешность дозиметра можно определить методом

По графику можно сравнить статистическую эффективность работы этих счетчиков. То есть какое время необходимо для того, чтобы дозиметр набрал необходимую статистику.

Теперь приведем график зависимости статистической ошибки Rв зависимости от времени измерения Tдля фоновых скоростей счета СБТ-10А и Бета-1 счетчиков при доверительной вероятности 95%. Мы рассматриваем этот доверительный уровень из-за соответствия его требованиям к профессиональным дозиметрам-радиометрам.

погрешность дозиметра можно определить методом

Из этого графика видно во сколько раз по сравнению с СБТ-10А для обеспечения того же качества измерения необходимо увеличить время измерения на счетчике Бета-1 из-за малой скорости счета, а точнее необходимо увеличить время измерения в 8 раз. И любое сокращение времени измерения скажется соответственно на качестве результатов измерения, делая результаты измерений недостоверными. По графику видно и это легко проверить вычислениями, что для того чтобы обеспечить 25% статистическую ошибку при доверительном уровне 95 % для счетчика Бета-1 необходимо более 3 минут, и любые показаниядо окончания этих 3 минут будут оценочными т.е. непригодными для достоверного анализа радиационной обстановки. А это означает, что какие бы технические характеристики не присваивал бы своим дозиметрам производитель, они не будут по объективным причинам превосходить характеристики модели изложенной выше и соответственно для обеспечения требуемой точности измерения и достоверности показаний для счетчика Бета-1реально требуется более 3 минут при значениях МАЭД близких к фоновым, т.е на большинстве замеров.

Данное математическое описание показывает как легко проверить подлинность качества измеренных величин на фоновых значениях МАЭД. К тому же оно показывает, от чего же зависит скорость измерения и качество измерения величины, будь то МАЭД или плотность потока бета частиц. И насколько превосходят по этим параметрам приборы собранные на счетчиках СБТ-10А. На самом деле дозиметры-радиометры серий ДРГБ-01 и МКГ-01 за счет выбранного счетчика превосходят дозиметры собранных на счетчике Бета-1 и по чувствительности и в высоких полях по разрешению, то есть по различению 2 ионизирующих частиц при близких к предельным скоростях счета. Так как счетчик СБТ-10А выполнен как 10 параллельных счетчиков, и это обеспечивает ему высочайшую разрешающую способность и соответственно метрологию и точность измерений. Но это уже отдельный разговор.

При выборе дозиметра-радиометра проверяйте реальные возможности выбранного счетчика, а не сведения производителя.

[1] Руководство по эксплуатации дозиметра-радиометра

[2] Методика выполнения измерений мощности эквивалентной дозы гамма-излучения дозиметрами и дозиметрами-радиометрами МВИ.МН, Гомель, 2005

[3] «Частицы и атомные ядра. Практикум» Москва 2004, приложение “Обработка результатов измерений»

[4] «Методических указаниях по радиационному контролю металлолома МУК 2.6.1.1087-02»

[5] Статистическая обработка результатов измерений. Лабораторный практикум. Новосибирский Государственный Университет, 2008.

Ответы на вопросы: Погрешность измерения дозиметра?

погрешность дозиметра можно определить методом

Ответы на вопросы: Погрешность измерения дозиметра? Многие покупатели поднимают вопрос точности измерения параметров излучения дозиметрами. В этой статье описаны некоторые «подводные камни» связанные с погрешностью профессиональных дозиметров

Дата добавления: 2018-06-01 ; просмотров: 1165 ; Мы поможем в написании вашей работы!

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *