Як визначити точність вимірювального пристрою?


10

Давайте скажемо, що у вас є вимірювальний пристрій, про який ви не знаєте точності, і опорний вимірювальний пристрій. Обидва вимірюють змінну $ x $. Діапазон інтересу становить $ x_0 & lt; x & lt; x_1 $. Як визначити точність невідомого пристрою в цьому діапазоні?

Мої дії будуть зібрати значення для обох пристроїв від $ x_0 $ до $ x_1 $ і побудувати розподіл помилки . The точність може тоді бути проміжок помилки, $ pm3 sigma $ або щось подібне - це правильно?

Припущення:

  • Довідковий вимірювальний прилад калібрується і практично не має помилок

Спочатку опорне пристрій вимірювання має бути належним чином відкалібровано. Тоді точність може бути визначена мінімальним входом для того, що відбувається зміна виходу. Напр. у ноніуперних супортах мінімальний вхід - відстань.
Fennekin

Я додав припущення, що він відкалібрований. - Я дійсно не знаю, як застосувати ваш приклад з ноніусом
John H. K.

1
ОК, так що "точність" або "правильність" за вашим посиланням? Схоже, що спочатку потрібно визначити правильність еталонного пристрою, припускаючи точність, як вказано для пристрою, а потім порівняти середнє читання на тестовому пристрої, щоб визначити правильність і розрахувати дисперсію для визначення точності. Я думаю, що більшість з нас "старожилів" використовують "точність" для цього новомодного "правильності".
Carl Witthoft

Відповіді:


2

Ваш підхід є правильним.

Якщо ви зацікавлені тільки в точності вашої системи, ви, ймовірно, хочете використовувати щось на зразок максимальної помилки. Ваша точність тоді +/- Макс помилка з припущенням, що реальні помилки рівномірно розподілені в цьому діапазоні (рівномірний розподіл часто буде завищеною, але це простий варіант, коли немає кращої інформації).

Однак цей підхід часто призводить до великих помилок через систематичні ефекти, які можна легко виправити, підібравши криву (зазвичай лінійну) через ділянку виміряних і справжніх значень.

Це повинно виправити зміщення у вашому приладі, і тоді ви можете обчислити невизначеність на основі стандартного відхилення залишків. Загальна невизначеність, як правило, кратна $ sig sigma $, вибір досить арбітральний, тому вам слід вказати кратне (k значення) або асоційований коефіцієнт покриття. Ви також повинні вказати, який розподіл ви вважаєте, оскільки це вплине що багаторазове дає конкретне покриття. Напр. Для гауссового 95% покриття k ~ 2, але для рівномірного розподілу 95% охоплення k ~ 1,68


Як ви сказали, вибір довільний, але чи є спільний стандарт? Я часто зустрічався з аркушами даних, які просто сказали "Точність: + -Y", не визначаючи, чи є це 2sigma, 3sigma і т.д. ...
John H. K.

@ JohnH.K. 2 $ - sigma $ зазвичай є довірчим інтервалом за замовчуванням або 95%. Хоча не стверджуючи, що це не хороша практика. Хоча, якщо він просто говорить точність я думаю / сподіваюся, що це говорить про максимально допустимої помилки.
nivag

У моєму досвіді листи з даними часто бувають незрозумілих термінів і погано визначених цінностей, хоча (продажі brouchers ще гірше).
nivag

3

Єдиним способом визначити точність, до якої будь-який вимірювальний прилад здійснює вимірювання, є калібрування його проти пристрою відомої точності і відомих похибок для вимірювань.

Ваша техніка частково правильна; не просто виконайте вимірювання помилок для меж пристрою як одну популяцію або вибірку. Це пояснюється тим, що помилки вимірювань не завжди є однорідними.

Наприклад, для зчитування між 0 & amp; 1, помилка може бути -0,2 і для зчитування між 2 & amp; 3 помилка може бути +0,6. Ваші випробування повинні проводитися в діапазонах або смугах, незалежно від того, чи є одиниці мм (для лінійки), м / с (для анемометрів або спідометрів) або Па (для барометрів).

Для кожного діапазону / діапазону визначте похибку для цього діапазону / діапазону, а потім застосуйте цю помилку до вимірювання, прийнятого з пристрою, який потребує калібрування.


Це було б з припущенням, що я хочу відкалібрувати пристрій - якого я не хотів. Я просто хочу його оцінити. Я розумію ваш приклад, і йти на крок далі з ним: тепер у вас є -0.2 помилка для першого "bin", +0.6 помилка для другої і так далі ... Якщо ви хочете підсумувати, що для всього діапазону в єдиний номер, що ви використовуєте? Стандартне відхилення для всіх помилок?
John H. K.

Як ви могли б "оцінити" без одночасного генерування інформації, яка забезпечує калібрування?
Carl Witthoft

@CarlWitthoft Ну, ви генеруєте інформацію для калібрування, але може бути неможливо вбудувати цю інформацію в пристрій або зробити її доступною в іншій формі для користувача.
John H. K.

@CarlWitthoft thefreedictionary.com/calibrate не згоден зі мною. Я все ще думаю, що існує різниця між визначенням точності та вдосконаленням пристрою, роблячи цю інформацію доступною, але я не думаю, що ми досягаємо прогресу, аргументуючи це визначення.
John H. K.

1
"Єдиний спосіб визначити точність ... - це калібрувати його на пристрій з відомою точністю". Якщо б це було, ми ніколи не могли б калібрувати наші найточніші пристрої. Щоб визначити точність інструментів, для яких не існує більш точного пристрою, ви порівнюєте його з ідентичними копіями себе (або використовуйте фізичні міркування).
Chris Mueller

1

Я був у команді інженерів з якості (але не з одного з експертів), і вони мали візуальне, де вони використовували ділянку 2d, де вісь Х була першим вимірюванням, а Y - другим вимірюванням тієї ж спостережуваної функції.

Вони повторюють міру / переоцінку і створюють те, що вони називають «діаграмою ковбасних виробів». Вони видалили б віддалені 2% зразків і намалювали «ковбасу» навколо інших.

Ви можете наочно побачити якість вимірювальної системи, спостерігаючи, наскільки близькі точки даних потрапили до лінії кута 45deg.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.