Главная


yilmaz
Kaban
lgf
prof
comall
mla

Классы точности станков


Класс точности станка | MoscowShpindel

На каждом виде станков проводится испытание на соответствие норме точности. Результаты испытания записываются в акт, который вкладывается в паспорт станка. Каждый тип станков имеет ГОСТ, который регламентирует допустимые отклонения во всех проверках. Количество проверок для разных типов станков бывает различным. Некоторые модели настольных широкоуниверсальных фрезерных станков с ЧПУ имеют несколько десятков проверок. Все станки классифицируются по точности работы делением на классы:

  1. На станках нормальной точности обрабатываются заготовки из проката, литья и поковок. Обозначаются буквой Н.
  2. На станках повышенной точности (они выпускаются на базе станков с нормальной точностью, но их монтаж отличается особой тщательностью) можно обрабатывать заготовки такого же производства, но с более точным выполнением всех работ. Обозначаются буквой П.
  3. На станках высокой точности (обозначаются буквой В) и особо высокой точности (буквой А) более высокая точность достигается за счет специальных конструктивных особенностей и высокой точности изготовления их узлов, а также благодаря специальным условиям эксплуатации.
  4. На особо точных станках можно достичь наивысшей точности обработки очень ответственных деталей: делительных дисков, зубчатых колес, измерительного инструмента и других видов. Обозначаются буквой С.

Допустимые отклонения по проверкам соседних классов точности станков отличаются друг от друга в 1,6 раза. Вот таблица величин допускаемых отклонений при прямолинейном движении для станков, имеющих различный класс точности.

Класс точности станка

Н П В А С

Допустимые отклонения, микроны

10 6 4 2,5 1,6

 

ГОСТ 8-82 для всех видов металлорежущих станков, в том числе и настольных с ЧПУ, устанавливает стандарт общих требований к испытаниям на точность. По нему точность всех станков этого типа определяется по трем группам показателей:

  1. точность обработки испытываемых образцов;
  2. геометрическая точность самих станков;
  3. дополнительные показатели.

Этот стандарт устанавливает порядок присвоения группе станков одинакового класса точности, который должен обеспечивать одинаковую точность обработки идентичных по форме и размеру образцов изделий.

Повышение точности ваших моделей машинного обучения | от Prashant Gupta

Устали от низкой точности моделей машинного обучения? Повышение здесь, чтобы помочь. Boosting - это популярный алгоритм машинного обучения, который повышает точность вашей модели, - то же самое, когда гонщики используют закись азота для увеличения скорости своего автомобиля.

Повышение использует алгоритм базового машинного обучения для подгонки данных. Это может быть любой алгоритм, но дерево решений используется наиболее широко.Для ответа на вопрос, почему так, просто продолжайте читать. Кроме того, алгоритм повышения легко объяснить с помощью деревьев решений, и это будет темой этой статьи. Он основан на подходах, отличных от бустинга, которые повышают точность деревьев решений. Для введения в древовидные методы, прочитайте мою другую статью здесь .

Bootstrapping

Я хотел бы начать с объяснения важного базового метода Bootstrapping .Предположим, что нам нужно изучить дерево решений, чтобы предсказать цену дома на основе 100 входных данных. Точность прогнозирования такого дерева решений будет низкой, учитывая проблему дисперсии , от которой оно страдает. Это означает, что если мы разделим обучающие данные на две части случайным образом и подгоним дерево решений по обеим половинкам, результаты, которые мы можем получить, могут быть совершенно разными. То, что мы действительно хотим, это результат, который имеет низкую дисперсию, если применяется неоднократно к отдельным наборам данных..

  • Изучите (обучите) дерево решений по каждому образцу.
  • Для нового набора данных рассчитайте прогноз для каждой подвыборки.
  • Рассчитайте среднее значение всех наших собранных прогнозов (также называемых оценками начальной загрузки) и используйте его в качестве нашего расчетного прогноза для данных.
  • Процедура может использоваться аналогичным образом для деревьев классификации . Например, если бы у нас было 5 деревьев решений, которые делали следующие предсказания класса для входной выборки: синий, синий, красный, синий и красный, мы бы выбрали наиболее частый класс и предсказали синий.

    При таком подходе деревья глубоко растут и не обрезаются . Таким образом, каждое отдельное дерево имеет высокую дисперсию, но низкое смещение. Усреднение этих деревьев значительно уменьшает дисперсию.

    Самозагрузка - это мощный статистический метод оценки количества из выборки данных . Количество может быть описательной статистикой, такой как среднее значение или стандартное отклонение. Применение процедуры начальной загрузки к алгоритму машинного обучения с высокой дисперсией, обычно деревьям решений, как показано в приведенном выше примере, известно как пакетирование (или агрегация начальной загрузки).

    Оценка ошибок

    Простой способ оценки ошибки тестирования модели в пакетах без необходимости перекрестной проверки - Оценка ошибок вне пакета .Наблюдения, которые не использовались для подгонки к данному дереву в мешках, называются наблюдениями из-за-мешка (OOB). Мы можем просто предсказать ответ для и -го наблюдения, используя каждое из деревьев, в которых это наблюдение было OOB. Мы усредняем эти предсказанные ответы или принимаем большинство голосов в зависимости от того, является ли ответ количественным или качественным. Можно рассчитать общий OOB MSE (среднеквадратическая ошибка) или коэффициент ошибки классификации. Это приемлемый коэффициент ошибок при тестировании, потому что прогнозы основаны только на деревьях, которые не были подогнаны с использованием этого наблюдения.

    Случайные леса

    Деревья решений стремятся минимизировать затраты, а это означает, что они используют самые сильные предикторы / классификаторы для разделения ветвей. Итак, большинство деревьев, созданных из загруженных выборок, будут использовать один и тот же сильный предиктор в разных расщеплениях. Это относится к деревьям и приводит к дисперсии .

    Мы можем повысить точность прогнозирования деревьев в мешках, используя случайные леса.

    . При разделении ветвей любого дерева в качестве кандидатов-кандидатов выбирается случайная выборка из м предикторов из полного набора p предикторов.Разделение затем разрешается использовать только один из этих м предикторов. Свежая выборка из м предикторов берется при каждом разделении. Вы можете попробовать разные значения и настроить их с помощью перекрестной проверки.

    • Для классификации хорошим значением по умолчанию является: m = sqrt (p)
    • Для регрессии хорошим значением по умолчанию является: m = p / 3

    Таким образом, в среднем ( p - m ) / p расколов даже не будут считать сильным предиктором. Это известно как декоррелирование деревьев, поскольку мы решаем проблему каждого дерева, используя один и тот же сильный предиктор.

    Если м = р , то случайные леса равны сумке.

    Важность функции

    Одна из проблем при вычислении полностью выращенных деревьев состоит в том, что мы не можем легко интерпретировать результаты. И уже не ясно, какие переменные важны для отношений. Расчет падения функции ошибки для переменной в каждой точке разделения дает нам представление о важности функции . Это означает, что мы записываем общую сумму, на которую ошибка уменьшается из-за разбиений по данному предиктору, усредненная по всем деревьям в мешках.Большое значение тогда указывает на важный предиктор. В задачах регрессии это может быть уменьшение остаточной суммы квадратов, а в классификации это может быть оценка Джини.

    Повышение

    Точность прогнозирования деревьев решений может быть дополнительно улучшена с помощью алгоритмов повышения.

    Основная идея повышения - преобразование многих слабых учеников в одного сильного ученика. Что мы подразумеваем под слабыми учениками?

    Слабый ученик - это ученик, который всегда добивается большего успеха, чем случайный, когда он пытается маркировать данные, независимо от того, как распределены данные обучения.Успех лучше, чем случайность, означает, что у нас всегда будет уровень ошибок менее 1/2. Это означает, что алгоритм ученика всегда собирается что-то изучать и не всегда будет полностью точным, т. Е. Слабым и плохим, когда речь идет об изучении взаимосвязей между входными данными и целью. Это также означает, что правило, сформированное с использованием одного предиктора / классификатора, не является мощным по отдельности.

    Мы начинаем находить слабых учеников в наборе данных, делая некоторые распределения и формируя из них небольшие деревья решений.Размер дерева настраивается с использованием количества расщеплений, которые оно имеет. Часто хорошо работает 1, где каждое дерево состоит из одного разбиения. Такие деревья известны как пней решений.

    Другим повышением параметра является число итераций или количество деревьев в этом случае. Кроме того, он присваивает входные значения на основе того, были ли они правильно спрогнозированы / классифицированы или нет. Давайте посмотрим на алгоритм.

    1. Сначала входы инициализируются равными весами .Для этого используется первый базовый алгоритм обучения, который обычно является пнем решения. Это означает, что на первом этапе это будет слабый ученик, который подберет подвыборку данных и сделает прогнозы для всех данных.
    2. Теперь мы выполняем следующие до достижения максимального числа деревьев :
    • Обновляем веса входных данных на основе предыдущего прогона, и весовые коэффициенты выше для ошибочно прогнозируемых / классифицированных входных данных
    • Создайте другое правило (решение о этот случай) и подгонять его под подвыборку данных.Обратите внимание, что это правило времени будет сформировано с учетом неправильно классифицированных входных данных (имеющих больший вес).
    • Наконец, мы прогнозируем / классифицируем все входные данные, используя это правило.

    3. После завершения итераций мы объединяем слабые правила в единое строгое правило , которое затем будет использоваться в качестве нашей модели.

    Приведенный выше алгоритм лучше объясняется с помощью диаграммы. Предположим, у нас есть 10 входных наблюдений, которые мы хотим классифицировать как «+» или «-».

    Источник изображения: Analytics Vidhya
    • Алгоритм повышения начинается с поля 1, как показано выше. Он назначает равные веса (обозначенные размером знаков) для всех входных данных и прогнозирует «+» для входных данных в синей области и «-» для входных данных в красноватой области, используя пень решения D1.
    • На следующей итерации, вставке 2, вы увидите, что веса неправильно классифицированных знаков плюс больше, чем другие входные данные. Таким образом, пень решения D2 выбран так, что эти наблюдения теперь классифицируются правильно.
    • В заключительной итерации, вставке 3, в ней есть 3 неправильно классифицированных негатива из предыдущего прогона. Таким образом, пень решения D3 выбран, чтобы исправить это.
    • Наконец, сильный ученик или вставка 3 имеют строгое правило, объединяющее отдельные слабые решения. Вы можете увидеть, как мы увеличили классификацию нашей модели.

    В настройках регрессии ошибка прогнозирования (обычно рассчитывается с использованием метода наименьших квадратов) используется для корректировки весов входных данных, и учащиеся, как следствие, больше внимания уделяют входным данным с большой ошибкой.

    Этот тип метода повышения известен как адаптивное повышение или AdaBoost. Как и в случае с деревьями, метод повышения также минимизирует функцию потерь. В случае Adaboost это функция экспоненциальной потери .

    Другой популярной версией повышения является алгоритм повышения градиента . Основная концепция остается той же: , за исключением того, что здесь мы не играем с весами, но соответствуют модели по остаткам (измерение разницы в прогнозировании и исходном результате), а не в исходных результатах. Adaboost реализован с использованием итеративно уточненных весов выборки, в то время как в Gradient Boosting используется модель внутренней регрессии, итеративно обученная по остаткам. Это означает, что новые слабые ученики формируются с учетом входных данных, которые имеют высокие остатки.

    В обоих алгоритмах параметр настройки лямбда или усадка еще больше замедляет процессы, позволяя большему количеству деревьев разной формы атаковать остатки.Это также известно как скорость обучения , поскольку она контролирует величину, с которой каждое дерево вносит вклад в модель. Как видите, Boosting также не включает в себя загрузку , вместо этого каждое дерево помещается в измененную версию исходных данных. Вместо подбора единого большого дерева решений, что приводит к жесткому подгонке данных и, возможно, к переобучению. Подход повышения учится медленно.

    Как видите, алгоритм четко объясняется с помощью деревьев решений, но есть и другие причины, по которым он в основном используется с деревьями.

    1. Деревья решений являются нелинейными. Увеличение с помощью линейных моделей просто не работает хорошо.
    2. Слабый ученик должен быть неизменно лучше случайных догадок. Обычно вам не нужно настраивать параметры для дерева решений, чтобы получить такое поведение. Например, для обучения SVM действительно необходим поиск параметров. Поскольку данные повторно взвешиваются на каждой итерации, вам, вероятно, потребуется выполнить поиск другого параметра на каждой итерации.Таким образом, вы увеличиваете объем работы, которую вы должны сделать с большим отрывом.
    3. Деревья решений достаточно быстро обучаются. Так как мы собираемся построить 100 или 1000 из них, это хорошая собственность. Их также можно быстро классифицировать, что опять-таки важно, когда вам нужно запустить 100 или 1000, прежде чем вы сможете вывести свое решение.
    4. Изменяя глубину , вы получаете простой и легкий контроль над компромиссом смещения / дисперсии, , зная, что повышение может уменьшить смещение, но также значительно уменьшает дисперсию.

    Это чрезвычайно упрощенное (возможно, наивное) объяснение повышения, но оно поможет вам понять самые основы. Популярная библиотека для реализации этого алгоритма - Scikit-Learn . Он имеет прекрасный API, который может запустить вашу модель с всего несколькими строками кода в Python .

    Точность станка поднимется на новый уровень

    Доктор Эндрю Лонгстафф

    Доктор Эндрю Лонгстафф из Университета Хаддерсфилда проводит исследование, целью которого является значительное улучшение точности станков. Теперь он заработал возможность работать на одном из самых передовых в мире предприятий, и это могло обеспечить быстрый путь, который обеспечит более быстрое внедрение его разработок крупными производителями.

    Доктор Лонгстафф - ведущий научный сотрудник Центра инновационного производства в области современной метрологии Университета EPSRC. Теперь он получил стипендию для работы с высокопроизводительной производственной катапультой (HVMC), которая частично финансируется Innovate UK. Схема финансируется Исследовательским советом по инженерным и физическим наукам и призвана помочь ученым работать с отраслевыми центрами, чтобы превратить свои исследования в коммерческую реальность.Катапульты описаны как «катализатор будущего роста и успеха производства в Великобритании».

    Его стипендию HMVC увидит доктор Лонгстафф, работающий в Исследовательском центре передовых производств Университета Шеффилда с компанией Boeing (AMRC). Расположенный рядом с Ротерхэмом, AMRC является центром совместных исследований мирового уровня, который исследует и решает сложные производственные проблемы от имени своего большого реестра промышленных партнеров, в который входят такие глобальные аэрокосмические гиганты, как Rolls-Royce и BAE Systems, а также амбициозные региональные компании.

    В течение следующих четырех лет, согласно условиям его стипендии, доктор Лонгстафф проведет в AMRC эквивалент шести месяцев. Он возьмет с собой новые передовые стратегии, разработанные им для количественной оценки точности станков и повышения предсказуемости изготавливаемых компонентов.

    Он проведет испытания в AMRC, и его методы могут быть переданы компаниям, которые являются членами Центра.

    «Речь идет о том, чтобы взять что-то, что было разработано в исследовательской среде, а затем распространять его более широко», - сказал доктор Лонгстафф.В результате повышенные уровни точности станков будут распространяться по всей производственной цепочке поставок, добавил он. Это может привести к резкому изменению стоимости и производительности производства в Великобритании.

    В дополнение к элементу передачи знаний в Катапульте, есть еще один важный аспект исследований.

    «Мы будем получать контролируемые производственные данные и коррелировать точность станка с окончательным выходом заготовки», - сказал доктор Лонгстафф. «Если вы пытаетесь сделать это непосредственно в отрасли, вы иногда изо всех сил пытаетесь получить контролируемые данные, чтобы установить эту корреляцию, но в более контролируемой среде AMRC у нас больше шансов убедиться, что мы сможем установить эту причину и следствие»."


    3-D печать идет высокая скорость и большой объем
    Предоставлено Университет Хаддерсфилда

    Цитирование : Точность станков поднимется на новый уровень (25 июня 2015 г.) извлечено 20 июля 2020 г. с https: // физ.орг / Новости / 2015-06-станкостроительный-accuracy.html

    Этот документ защищен авторским правом. Кроме честных сделок с целью частного изучения или исследования, нет Часть может быть воспроизведена без письменного разрешения. Содержание предоставлено исключительно в информационных целях.

    ,
    метрик для оценки вашего алгоритма машинного обучения | Aditya Mishra

    Оценка вашего алгоритма машинного обучения является неотъемлемой частью любого проекта. Ваша модель может дать вам удовлетворительные результаты при оценке с использованием метрики , скажем, precision_score , но может дать плохие результаты при сравнении с другими метриками, такими как logarithmic_loss или любой другой такой метрикой. В большинстве случаев мы используем точность классификации для измерения производительности нашей модели, однако этого недостаточно, чтобы действительно оценить нашу модель.В этом посте мы рассмотрим различные типы доступных показателей оценки.

    Точность классификации

    Логарифмическая потеря

    Матрица путаницы

    Область под кривой

    Оценка F1

    Средняя абсолютная ошибка

    Средняя квадратическая ошибка

    Классификационная точность - это то, что мы обычно имеем в виду, когда используем термин точность. Это отношение количества правильных прогнозов к общему количеству входных выборок.

    Работает хорошо, только если есть равное количество образцов, принадлежащих каждому классу.

    Например, предположим, что в нашем тренировочном наборе 98% выборок класса A и 2% выборок класса B. Тогда наша модель может легко получить 98% точности обучения , просто прогнозируя каждую тренировочную выборку, относящуюся к классу A.

    Когда эта же модель тестируется на тестовом наборе с 60% выборками класса A и 40% выборками класса B, тогда точность теста снизится до 60%. Точность классификации велика, но дает нам ложное чувство достижения высокой точности.

    Настоящая проблема возникает, когда стоимость неправильной классификации выборок младших классов очень высока. Если мы имеем дело с редким, но смертельным заболеванием, стоимость не диагностирования заболевания больного значительно выше, чем стоимость отправки здорового человека на дополнительные анализы.

    Logarithmic Loss или Log Loss, работает, штрафуя ложные классификации. Это хорошо работает для мультиклассовой классификации. При работе с Log Loss классификатор должен назначать вероятность каждому классу для всех выборок.Предположим, что имеется N выборок, принадлежащих к M классам, тогда Log Loss вычисляется следующим образом:

    , где,

    y_ij, указывает, принадлежит ли выборка i к классу j или нет,

    p_ij, указывает вероятность того, что выборка i принадлежит класс j

    Log Loss не имеет верхней границы и существует в диапазоне [0, ∞). Log Loss ближе к 0 указывает на более высокую точность, тогда как если Log Loss от 0, то это указывает на более низкую точность.

    Как правило, минимизация потерь в журнале дает большую точность классификатору.

    Путаница Матрица, как следует из названия, дает нам матрицу в качестве вывода и описывает полную производительность модели.

    Предположим, у нас есть проблема двоичной классификации. У нас есть несколько образцов, принадлежащих к двум классам: ДА или НЕТ. Также у нас есть собственный классификатор, который предсказывает класс для данной входной выборки. При тестировании нашей модели на 165 образцах мы получаем следующий результат.

    Confusion Matrix

    Существует 4 важных термина:

    • Истинные положительные значения : случаи, в которых мы прогнозировали ДА, а фактический результат также составлял ДА.
    • True Negatives : Случаи, в которых мы прогнозировали NO и фактический результат, были NO.
    • Ложные срабатывания : Случаи, в которых мы прогнозировали ДА, а фактический результат был НЕТ.
    • False Negatives : Случаи, в которых мы прогнозировали НЕТ и фактический результат, были ДА.

    Точность для матрицы можно рассчитать, взяв среднее значение, лежащее на «главной диагонали» , т.е.

    Область под кривой (AUC) является одним из наиболее широко используемых показателей для оценки. Используется для задачи бинарной классификации. AUC классификатора равна вероятности того, что классификатор будет ранжировать случайно выбранный положительный пример выше, чем случайно выбранный отрицательный пример. Прежде чем определить AUC , давайте разберемся с двумя основными терминами:

    • Истинный положительный коэффициент (чувствительность) : Истинный положительный коэффициент определен как TP / (FN + TP) .Истинный положительный коэффициент соответствует доле точек положительных данных, которые правильно считаются положительными, по отношению ко всем точкам положительных данных.
    • Истинный отрицательный коэффициент (специфичность) : Истинный отрицательный коэффициент определяется как TN / (FP + TN) . Коэффициент ложных положительных результатов соответствует доле точек отрицательных данных, которые правильно считаются отрицательными, по отношению ко всем точкам отрицательных данных.
    • Неверно положительная ставка : Неверно положительная ставка определяется как FP / (FP + TN) .Коэффициент ложных положительных результатов соответствует доле отрицательных точек данных, которые ошибочно считаются положительными, по отношению ко всем отрицательным точкам данных.

    Неверно положительный коэффициент и Истинный положительный коэффициент оба имеют значения в диапазоне [0, 1] . FPR и TPR рассчитываются при различных пороговых значениях, таких как (0,00, 0,02, 0,04,…, 1,00), и строится график. AUC - это область под кривой графика Неверная положительная ставка против истинной положительной ставки в разных точках [0, 1] .

    Как видно, AUC имеет диапазон [0, 1]. Чем больше значение, тем выше производительность нашей модели.

    F1 балл используется для измерения точности теста

    F1 балл - это гармоническое среднее между точностью и отзывом. Диапазон для F1 балла составляет [0, 1]. Он говорит вам, насколько точен ваш классификатор (сколько экземпляров он классифицирует правильно), а также насколько он надежен (он не пропускает значительное количество экземпляров).

    Высокая точность, но более низкий отзыв, дает вам чрезвычайно точную, но затем пропускает большое количество случаев, которые трудно классифицировать.Чем больше балл F1, тем лучше производительность нашей модели. Математически это можно выразить следующим образом:

    F1 Score

    F1 Score пытается найти баланс между точностью и отзывом.

    • Точность: Это число правильных положительных результатов, деленное на количество положительных результатов, предсказанных классификатором.
    Precision
    • Напомним: Это число правильных положительных результатов, деленное на число всех соответствующих образцов (все образцы, которые должны были быть определены как положительные).
    Напомним

    Средняя абсолютная ошибка - это среднее значение разницы между исходными и прогнозируемыми значениями. Это дает нам меру того, как далеко были прогнозы от фактического результата. Тем не менее, они не дают нам никакого представления о направлении ошибки, т. Е. Не прогнозируем ли мы данные или не предсказываем ли мы данные. Математически это представляется следующим образом:

    Среднее квадратичное отклонение (MSE) очень похоже на Среднее абсолютное отклонение, единственное отличие состоит в том, что MSE принимает среднее значение квадрата разности между исходными значениями и прогнозируемыми значениями.Преимущество MSE состоит в том, что легче вычислить градиент, в то время как средняя абсолютная ошибка требует сложных инструментов линейного программирования для вычисления градиента. Поскольку мы принимаем квадрат ошибки, эффект от более крупных ошибок становится более выраженным, чем от более мелких ошибок, поэтому модель теперь может больше фокусироваться на более крупных ошибках.

    средняя квадратическая ошибка

    Вот и все.

    Спасибо за чтение. Для любого предложения или запросов, оставьте свои комментарии ниже.

    Как отмечали многие, было несколько ошибок в некоторых терминологиях.Думаю, мне следовало дважды прочитать статью, прежде чем публиковать ее. Ура!

    Если вам понравилась статья, нажмите значок 👏, чтобы поддержать ее. Это поможет другим пользователям Medium найти его. Поделитесь этим, чтобы другие могли его прочитать.


    Смотрите также

    
    © 2015, All-Stanki.ru - оборудование для производства окон пвх и стеклопакетов Содержание, карта сайта.