Тесты на тему "Искусственный интеллект | Синергия | Ответы на ИТОГОВЫЙ ТЕСТ | На отлично!"

Ответы представлены на ИТОГОВЫЙ ТЕСТ

Результат - 100 баллов

Перед покупкой сверьте список вопросов и убедитесь, что вам нужны ответы именно на эти вопросы!

С вопросами вы можете ознакомиться ДО покупки.

Для быстрого поиска вопроса используйте Ctrl+F.

Демо работы

Описание работы

В каком случае метрика accuracy будет репрезентативной
• Когда все виды ошибок имеют для нас одинаковую важность, и может быть дисбаланс классов
• Когда все виды ошибок имеют для нас одинаковую важность, но дисбаланса классов быть не должно
• Когда дисбаланс классов может быть, и ошибки могут иметь любое соотношение важности

Выберете верное утверждение:
• Логистическая регрессия решает задачу регрессии
• Логистическая регрессия нужна для поиска оптимальных маршрутов грузоперевозок
• Логистическая регрессия решает задачу классификации

Выберете верное утверждение:
• Для линейной регрессии возможно аналитически найти решение задачи минимизации эмпирического риска только в одномерном случае
• Линейная регрессия допускает аналитическое решение задачи минимизации суммы квадратов расстояния от предсказанных меток до верных ответов в случае любой размерности
• Для линейной регрессии не существует решения задачи минимизации эмпирического риска

Градиентный бустинг - это:
• Усиление обобщающей способности модели посредством использования нескольких градиентных методов оптимизации
• Композиционный алгоритм (обычно над решающими деревьями), основанный на идее построения нового элемента композиции на каждой итерации таким образом, что следующее приближение вектора ответов алгоритма отличается от текущего на градиент ошибки
• Композиционный алгоритм над решающими деревьями, основанный на идее голосования классификаторов, проводимого особым способом, с приписыванием константных весов каждому классификатору

Если мы предсказываем средние затраты на обслуживание машины, то максимальная скорость разгона машины – это
• Бинарный признак
• Непрерывный признак
• Номинальный признак

Если мы предсказываем среднюю стоимость машины в зависимости от ее класса, то класс представляет собой
• Бинарный признак
• Непрерывный признак
• Категориальный признак

Задача автоматического выделения похожих новостных статей без размеченной выборки – это задача
• Регрессии
• Бинарной классификации
• Кластеризации

Задача автоматической идентификации марки машины по ее изображению – это задача
• Регрессии
• Бинарной классификации
• Многоклассовой классификации

Задача классификации – это задача
• Обучения с учителем
• Обучения без учителя
• Обучения с подкреплением

Задача понижения размерности признакового пространства – это задача
• Обучения с учителем
• Обучения без учителя
• Обучения с подкреплением
Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Выбор модели машинного обучения происходит на этапе:
• Выбора семейства F
• Оценки качества выбранной функции f из семейства F
• Поиска наилучшей функции из семейства F

Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Задача обучения сводится к задаче оптимизации на этапе:
• Выбора семейства F
• Оценки качества выбранной функции f из семейства F
• Поиска наилучшей функции из семейства F

Метод K-Means - Это :
• Метрический метод классификации, основанный на усреднении расстояний до k ближайших соседей
• Метод кластеризации
• Метод валидации модели, основанный на усреднении ошибки по к прогонам модели на тестовых данных

Метод опорных векторов (Support Vectors Machine, SVM):
• Строит оптимальную разделяющую гиперплоскость, максимизируя ширину полосы между двумя классами
• Аппроксимирует искомую функцию, обучаясь при помощи градиентных методов, решает задачу регрессии
• Проводит гиперповерхность, минимизируя сумму квадратов расстояний элементов обучающей выборки до этой гиперповерхности

Недостатки k-means:
• Необходимость подбирать k, неустойчивость от выбора начального приближения центров кластеров
• Неинтерпретируемость
• Плохое качество работы

Обучение с учителем характеризуется
• Целью обучить агента принимать оптимальные решения в среде
• Отсутствием размеченной выборки
• Наличием размеченной выборки

Процедура LearnID3 состоит в:
• Последовательном построении решающего дерева посредством поиска предиката с максимальной информативностью на каждом шаге и разделении обучающей выборки на две части по этому предикату до тех пор, пока не будет достигнуто нужное число вершин в дереве
• Последовательном построении решающего дерева посредством разбиения обучающей выборки на случайные подвыборки с сохранением отношения числа элементов одного класса к числу элементов другого класса
• В индексации вершин решающего дерева особым способом
• В особом способе полива тропических растений в наших широтах

Решающие деревья обладают следующими свойствами:
• Плохо интерпретируются, чувствительны к шуму, иногда отказывают в классификации данных
• Строят разделяющую гиперплоскость, не чувствительны к шуму, не переобучаются
• Легко обрабатывают пропуски данных, хорошо интерпретируются, исключают отказы классификации, обрабатывают разнотипные и неотмасштабированные данные
• Способны решать лишь задачу регрессии

Случайный лес – это:
• Составление композиционного алгоритма при помощи подбора случайных алгоритмов машинного обучения и их последующего голосования
• Композиционный алгоритм (обычно над решающими деревьями), основанный на идее построения нового элемента композиции на каждой итерации таким образом, что следующее приближение вектора ответов алгоритма отличается от текущего на градиент ошибки
• Метод голосования решающих деревьев, каждое из которых было обучено на собственной подвыборке объектов и подвыборке признаков

Эмпирический риск вводится исходя из предположения, что
• Оценка качества работы алгоритма на обучающей выборке примерно совпадает с ожидаемым качеством работы алгоритма вне ее
• Обучающая выборка выбрана из нормального распределения по всем признакам
• Оценка риска только на обучающей выборке – более правильный подход, чем оценка риска на всех возможных данных

Похожие работы
Другие работы автора

НЕ НАШЛИ, ЧТО ИСКАЛИ? МОЖЕМ ПОМОЧЬ.

СТАТЬ ЗАКАЗЧИКОМ