Социальная метрология

Курсовая работа

Проблемы, которые решаются в метрологии, определены следующими направлениями: общая теория измерения, единицы физических величин и их системы, методы и средства измерений, методы определения точности измерения, основы обеспечения единства измерения и единообразия средств измерений, методы передачи размеров единиц эталонов и образцовых средств измерений к рабочим средствам измерений.

физических величин

Физические величины различают в количественном и качественном отношении. Качественная сторона определяет «вид» величины, а количественная – её размер. Таким образом, физическая величина – свойство, общее в качественном отношении для множества объектов, и индивидуальное в количественном отношении для каждого из них. Размер физической величины существует объективно, вне зависимости оттого, что мы знаем о нём.

Измерение

Отличие результата измерения от истинного значения физической величины объясняется несовершенством средств измерений, несовершенством способа применения средств измерения, влиянием условий выполнения измерения, участием человека с его ограниченными возможностями.

Измерения играют огромную роль в современном обществе. Наука, техника и промышленность не могут существовать без них. При разработке, производстве (в технологических процессах), эксплуатации технических систем, контроле состояния окружающей среды, медицине, торговле, учёте расходования материально-технических ресурсов и других видах деятельности общества измерения были, есть и будут одними из важнейших условий достижении поставленных целей. Каждую секунду в мире производятся миллиарды измерительных операций, результаты которых используются для обеспечения каче­ства и технического уровня выпускаемой продукции, безопасной и безаварийной работы транспорта, обоснования медицинских и эко­логических диагнозов, анализа информационных потоков.

Метрология воедино связывает теорию и практику в любых отраслях знаний. Как нельзя обойтись без математики в теоретиче­ских расчётах, так нельзя обойтись без метрологии при реализации этих расчётов. Это подметил и четко сформулировал Д. И. Менделеев: «Точная наука немыслима без меры».

1. Понятие случайной величины

случайной величиной

распределение

функции распределения

10 стр., 4525 слов

Средства и методы педагогического воздействия на личность

... отношениях преподавателя и студента основных принципов педагогики сотрудничества. 2. Средства и методы педагогического воздействия на личность Реализацию целей воспитания и образования называют педагогич е ским процессом. Систему воспитательных ... человечность: любовь к людям, высокий уровень психологической терпимости (толерантности), мягкость в человеческих отношениях, уважение к личности и ее ...

Функция распределения имеет следующие свойства:

1) ;

2) .

Плотностью вероятности

. (1.1)

Вероятность попадания дискретной случайной величины Х в интервал (a ; b ) будет равна:

. (1.2)

Для непрерывной случайной величины:

. (1.3)

Геометрически эта вероятность равна площади криволинейной трапеции ограниченной графиком плотности распределения, прямыми и и осью x . Поэтому по форме кривой плотности вероятности можно судить о том, какие значения случайной величины X наиболее вероятнее, какие менее.

Плотность вероятности обладает следующими свойствами:

1) ;

2) .

Также следует отметить, что для любой дискретной случайной величины .

2. Числовые характеристики случайных величин

Математическим ожиданием

. (2.1)

Математическим ожиданием непрерывной случайной величины Х называется определённый интеграл от произведения действительного переменного на плотность вероятности в пределах от до :

. (2.2)

Математическое ожидание является числовой характеристикой положения и измеряется в тех же единицах что и сама случайная величина.

Дисперсией

. (2.3)

Для непрерывной случайной величины дисперсия определится как:

. (2.4)

Средним квадратическим отклонением

. (2.5)

Дисперсия и среднее квадратическое отклонение являются мерами рассеивания случайной величины. Дисперсия выражается в квадратах соответствующих единиц измерения. Среднее квадратическое отклонение измеряется в тех же единицах что и сама случайная величина. Чаще в качестве меры рассеивания случайной величины используют среднее квадратическое отклонение.

3. Основные виды законов распределения случайных величин

Существует несколько видов законов распределения непрерывной случайной величины. Рассмотрим два наиболее часто встречающихся из них.

1) Нормальный закон распределения.

Нормальный закон распределения величины Х представляется плотностью вероятности (рис. 2, a ):

. (3.1)

Функция распределения при нормальном законе распределения не выражается через элементарные функции, для её вычисления пользуются таблицами функции Лапласа в виде (рис. 2, b )

. (3.2)

Рис. 2. Нормальный закон распределения

2) Равномерный закон распределения

Случайная величина Х , распределённая равномерно на интервале от а до b , имеет постоянную плотность распределения на этом интервале, и вне его равна нулю (рис. 3):

Рис. 3. Равномерный закон распределения

(3.3)

Из условия , поскольку площадь, ограниченная кривой плотности распределения, равна единице, получим

. (3.4)

Функция распределения выражается через интеграл плотности вероятности:

(3.5)

4. Энтропия как мера неопределённости состояния случайной величины

энтропией

Энтропией измеряемой величины Х называется сумма произведений вероятностей различных состояний случайной величины на логарифмы этих вероятностей, взятая с обратным знаком:

, (4.1)

где log – знак двоичного логарифма.

Знак минус перед суммой ставится для того, чтобы энтропия была положительной: вероятности pi меньше единицы и их логарифмы отрицательны.

Непрерывная измеряемая величина Х имеет неопределённость, характеризуемую значением энтропии

. (4.2)

Вычисление энтропии можно несколько упростить, если ввести в рассмотрение функцию

Тогда энтропия случайной величины X равна

. (4.3)

Функция табулирована (см. приложение).

Существует понятие условной энтропии. Пусть имеются две независимые случайные величины Х и Y . Предположим, что случайная величина Х приняла состояние х i . Обозначим условную вероятность того, что случайная величина Y примет состояние у i при условии, что случайная величина Х находится в состоянии х i :

. (4.4)

Условную энтропию при проведении измерений можно рассматривать как меру уменьшения неопределённости случайной величины Х , имеющей до измерения энтропию , а после измерения , т. е. , где х i – результат измерения.

Определим условную энтропию случайной величины Y как энтропии при условии, что случайная величина Х находится в состоянии xi :

, (4.5)

где m число состояний случайной величины Y , или

. (4.6)

Условная энтропия зависит от того, какое состояние х i приняла случайная величина Х . Полная энтропия случайной величины Y будет равна

, (4.7)

где n – число состояний случайной величины Х .

Поскольку результат измерений непосредственно зависит от значения погрешности Δ измерений, включающей в основном погрешность средства измерения, то в соответствии (4.2) и (4.4) условная энтропия будет равна

, (4.8)

где – плотность распределения погрешности измерений; – результат измерений.

В случае нормального закона распределения погрешности Δ измерений при среднем квадратическом отклонении условная энтропия после несложных вычислений с помощью формулы составит

Таким образом, чем больше погрешность измерений, представляемая средним квадратическим отклонением, т. е. средней квадратической погрешностью измерений, там больше значение и, следовательно, тем меньше уменьшится неопределённость случайной величины Ix после проведения измерений.

теории информации

5. Энтропия и информация

Очевидно, что чем больше неопределённость случайной величины, тем больше количества информации требуется для её описания. Если до проведения измерений априорная энтропия измеряемой величины была , а после измерений она стала равной . Обозначим Ix информацию, получаемую в результате измерений. Она равна уменьшению энтропии:

. (5.1)

Если в результате измерений мы нашли истинное значение измеряемой величины, то энтропия стала равной нулю, отсюда

т. е. количество информации , приобретаемое при полном выяснении состояния некоторой физической величины, равно энтропии этой системы.

С учётом формулы (4.1):

. (5.2)

Формула (5.2) означает, что информация есть осреднённое по всем состояниям случайной величины значение логарифма вероятности состояния с обратным знаком.

Действительно, для получения каждое значение (логарифма вероятности i -го значения) со знаком минус множится на вероятность этого состояния и все такие произведения складываются. Естественно каждое отдельное слагаемое – следует рассматривать как частную информацию, получаемую от отдельного измерения, состоящего в том, что случайная величина находиться в состоянии xi . Обозначим эту информацию .

. (5.3)

Тогда информация представится как средняя (или полная) информация, получаемая от всех возможных отдельных измерений с учетом их вероятностей.

Так как все числа не больше единицы, то как частная информация , так и полная не могут быть отрицательными.

Если все возможные состояния случайной величины равновероятны, то частная информация от каждого отдельного измерения равна полной средней (полной) информации:

6. Применение теории информации для характеристики процессов измерения

Точность измерения обычно характеризуется числовым значением полученных при измерении или априорно известных погрешностей измерений.

Пусть в результате однократного измерения значения измеряемой величины Х результат измерения равен хи . Если известно, что средство измерения имеет случайную абсолютную погрешность в пределах , то не следует утверждать, что действительное значение измеряемой величины равно xи . Можно лишь утверждать, что это значение лежит в полосе . Незнание истинного значения измеряемой величины сохраняется после получения результата хи , но теперь оно характеризуется не исходной энтропией , разброса действительного значения X величины относительно полученного результата хи . Эта условная энтропия определяется погрешностью данного средства измерения.

В теории информации факт проведения измерений в диапазоне от хн до хв означает, что при использовании данного средства измерения может быть получен результат измерений хи только в пределах от хн до хв . другими словами, вероятность получения значений хи , меньших хн и больших хв равна нулю. Вероятность же получения результата хи равна единице.

Если предположить, что плотность распределения различных значений измеряемой величины вдоль всей шкалы средства измерения одинакова, то с точки зрения теории информации наше знание о значении измеряемой величины до измерения может быть представлено графиком плотности распределения плотности вдоль шкалы значений (рис. 4):

Поскольку вероятность получения результата измерений хи в пределах от хн до хв равна единице, то площадь под кривой должна быть равна единице. При равномерном распределении плотности вероятности

Рис 4. Априорная плотность распределения данного измерительного прибора

После проведения измерения из-за наличия погрешности средства измерения действительное значение измеряемой величины Х лежит в пределах от до , т. е. в пределах участка .

С информационной точки зрения интерпретация результата измерения состоит в том, чтобы область неопределённости простиралась от хн до хв и характеризовалась сравнительно небольшой плотностью распределения . После измерения неопределённость уменьшилась до величины с учетом того, что , что и отражено на рис. 4.

Определим количество информации в общем случае как

где – априорная энтропия, – условная энтропия.

В нашем примере с равномерным законом распределения

;

Полученное количество информации

Данная операция, которая обычно используется при определении относительной погрешности измерения, характеризует один из основных приёмов анализа информационных свойств измерений.

7. Энтропийное значение погрешности измерений

Как было показано, с точки зрения теории информации количество информации , получаемое в результате любого измерения, соответствует уменьшению неопределённости выяснения состояния некоторой измеряемой величины и равно разности энтропии до и после проведения измерений [формула (5.1)]. При этом априорная энтропия зависит только от закона распределения различных значений некоторой случайной величины. А условная энтропия равна энтропии закона распределения погрешностей измерений.

энтропийным значением погрешности измерений

Энтропия погрешности измерения рана логарифму интервала неопределённости. Длина этого интервала может быть выражена также через значение среднего квадратического отклонения погрешности измерения. Для равномерного распределения дисперсия

Так как

Отсюда среднее квадратическое отклонение

Таким образом, , а интервал неопределённости . Чем меньше среднее квадратическое отклонение, тем меньше неопределённость результатов измерений.

Условная энтропия равна

За энтропийное значение погрешности измерений принимается наибольшее её значение при равномерном законе распределения, которая «вносит» такое же дезинформационное действие, как и погрешность с данным законом распределения.

Так, если погрешность измерений распределена нормально, то энтропийное значение погрешности

Зависимость между энтропийным и средним квадратическими значениями погрешности имеет вид

где kэ – энтропийный коэффициент.

Для обычного закона распределения погрешностей измерений , для равномерного закона . Сравнение значений энтропийных коэффициентов нормально и равномерно распределённых погрешностей измерений позволяет сделать вывод о том, что при одинаковых значениях среднего квадратического отклонения погрешность (при нормальном законе распределения) вносит большее дезинформационное действие, чем погрешность, распределённая равномерно.

8. Свойства энтропии

1) Энтропия обращается в нуль, когда одно из состояний системы достоверно (вероятность равна единице), а другие – невозможны (вероятности равны нулю).

2) Если рассмотреть случайную дискретную величину Х , которая имеет n равновероятных значений, то вероятность каждого из них будет равна и

Таким образом, энтропия системы с равновозможными состояниями ровна логарифму числа состояний. При увеличении числа состояний энтропия увеличивается.

3) Энтропия обладает свойством аддитивности: когда несколько независимых систем объединяются в одну, их энтропии складываются:

4) Единицы измерения энтропии зависят от выбора основания логарифма. При использовании десятичного логарифма энтропия определяется в так называемых десятичных единицах (дит).

В случае двоичных логарифмов энтропия выражается в двоичных единицах (бит).

На практике удобнее всего пользоваться логарифмами при основании 2, поскольку при этом достигается согласие с применяемой в электронных цифровых вычислительных машинах двоичной системой счисления.

Задание :

При отсутствии фазометра можно измерить cosφ (коэффициент мощности) косвенно – с помощью ваттметра, амперметра и вольтметра. Определить погрешность оценки cosφ двигателя, если имеется ваттметр, амперметр и вольтметр класса точности 2,5.

Решение :

1) Построим схему подключения приборов:

2) Выведем формулу для выражения коэффициента мощности пе­ременного тока через значения силы тока, напряжения и мощности.

Мгновенное значение мощности в цепи переменного тока запишется в виде:

;

Отсюда:

Раскрыв имеем:

Все омметры градуируются не по мгновенному, а по среднему значению мощности переменного тока за период колебаний. Учи­тывая, что получим:

Все амперметры и вольтметры градуируются по действующим значениям силы тока и напряжения, которые определяются по фор­му­лам:

Подставив последние равенства в выражение для вы­числения средней мощности, получим:

3) Относительная погрешность измерения находится по фор­муле:

где – измеренное, – действительное значение физи­ческой величины.

Измеренное значение физической величины можем представить в виде:

где a – погрешность измеритель­ного прибора.

Тогда погрешность в определении произ­ведения IU за­пишется в виде:

где a и b – погреш­ности вольтметра и амперметра соответственно.

Формула для вычисления погрешности в определении за­пи­шется в виде:

где с – погрешность ваттметра.

Для худшего случая, когда знаки погрешностей противопо­ложны, и учитывая, что , имеем .

Вольтметр, амперметр и ваттметр в данной задаче имеют класс точности 2,5, отсюда: %.

Тогда получим:

Искомое значение погрешности в определении коэффициента мощности будет равно:

Ответ :

1) Кузнецов В.А., Ялунина Г. В. Основы метрологии: Учеб. Посо­бие. – М.: Издательство стандартов, 1995.

2) Шабалин С.А. Прикладная метрология в вопросах и ответах. – М.: Издательство стандартов, 1990.

3) Сергеев А.Г., Крохин В. В. Метрология. Учебное пособие. – М.: Издательство «Логос». 2001.

4) Радкевич Я.М., Лактионов Б.И. Метрология и взаимозаменяемость. – М.: Издательство Московского государственного горного университета. 1995.