твой-зачёт.рф
С любовью к учебе
Твой-зачет 🖤
+7 (977) 762-60-60
+7 (966) 062-65-49
+7 (495) 978-00-01
Заказать звонок
О нас
  • О компании
  • Отзывы
  • Ценности и гарантии
  • Договор-оферта
  • Пользовательское соглашение
Услуги
  • Оформление рефератов / контрольных работ
  • Оформление магистерских диссертаций
  • Оформление дипломных работ
  • Оформление курсовых работ
  • Оформление практических работ
  • Тесты/Экзамены/Зачеты
Магазин готовых работ
Отзывы
Полезная информация
Контакты
    твой-зачёт.рф
    Меню  
    • О нас
      • О компании
      • Отзывы
      • Ценности и гарантии
      • Договор-оферта
      • Пользовательское соглашение
    • Услуги
      • Оформление рефератов / контрольных работ
      • Оформление магистерских диссертаций
      • Оформление дипломных работ
      • Оформление курсовых работ
      • Оформление практических работ
      • Тесты/Экзамены/Зачеты
    • Магазин готовых работ
    • Отзывы
    • Полезная информация
    • Контакты
    Заказать звонок
    +7 (977) 762-60-60
    +7 (966) 062-65-49
    +7 (495) 978-00-01
    Искусственный интеллект (тест с ответами Синергия)
    Телефоны
    +7 (977) 762-60-60
    +7 (966) 062-65-49
    +7 (495) 978-00-01
    Заказать звонок
    • О нас
      • Назад
      • О нас
      • О компании
      • Отзывы
      • Ценности и гарантии
      • Договор-оферта
      • Пользовательское соглашение
    • Услуги
      • Назад
      • Услуги
      • Оформление рефератов / контрольных работ
      • Оформление магистерских диссертаций
      • Оформление дипломных работ
      • Оформление курсовых работ
      • Оформление практических работ
      • Тесты/Экзамены/Зачеты
    • Магазин готовых работ
    • Отзывы
    • Полезная информация
    • Контакты

    Искусственный интеллект (тест с ответами Синергия)

    • Главная
    • Готовые работы
    • Искусственный интеллект (тест с ответами Синергия)
    Поделиться

    Описание

    33 вопроса с ответами

    Последний раз тест был сдан на 100 баллов из 100 "ОТЛИЧНО"

    Год сдачи - 2020-2024 г.

    200 руб.
    Оформите заявку на приобретение работы, мы свяжемся с вами в ближайшее время и ответим на все интересующие вопросы.
    Заказать
    • Описание
    • Документы
    Описание

    ***ВАЖНО*** Перед покупкой запустите тест и сверьте подходят ли эти ответы именно Вам***

    После покупки Вы получите файл с ответами на вопросы которые указаны ниже:

    Оглавление

    1. Обучение с учителем характеризуется

    *Целью обучить агента принимать оптимальные решения в среде

    *Отсутствием размеченной выборки

    *Наличием размеченной выборки

    2. Случайный лес – это:

    *Составление композиционного алгоритма при помощи подбора случайных алгоритмов машинного обучения и их последующего голосования

    *Композиционный алгоритм (обычно над решающими деревьями), основанный на идее построения нового элемента композиции на каждой итерации таким образом, что следующее приближение вектора ответов алгоритма отличается от текущего на градиент ошибки

    *Метод голосования решающих деревьев, каждое из которых было обучено на собственной подвыборке объектов и подвыборке признаков

    3. Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Задача обучения сводится к задаче оптимизации на этапе:

    *Выбора семейства F

    *Оценки качества выбранной функции f из семейства F

    *Поиска наилучшей функции из семейства F

    4. Решающие деревья обладают следующими свойствами:

    *Плохо интерпретируются, чувствительны к шуму, иногда отказывают в классификации данных

    *Строят разделяющую гиперплоскость, не чувствительны к шуму, не переобучаются

    *Легко обрабатывают пропуски данных, хорошо интерпретируются, исключают отказы классификации, обрабатывают разнотипные и неотмасштабированные данные

    *Способны решать лишь задачу регрессии

    5. Задача автоматической идентификации марки машины по ее изображению – это задача

    *Регрессии

    *Бинарной классификации

    *Многоклассовой классификации

    6. Если мы предсказываем среднюю стоимость машины в зависимости от ее класса, то класс представляет собой

    *Бинарный признак

    *Непрерывный признак

    *Категориальный признак

    7. Задача автоматического выделения похожих новостных статей без размеченной выборки – это задача

    *Регрессии

    *Бинарной классификации

    *Кластеризации

    8. Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Выбор модели машинного обучения происходит на этапе:

    *Выбора семейства F

    *Оценки качества выбранной функции f из семейства F

    *Поиска наилучшей функции из семейства F

    9. Выберете верное утверждение:

    *Логистическая регрессия решает задачу регрессии

    *Логистическая регрессия нужна для поиска оптимальных маршрутов грузоперевозок

    *Логистическая регрессия решает задачу классификации

    10. Задача классификации – это задача

    *Обучения с учителем

    *Обучения без учителя

    *Обучения с подкреплением

    11. Эмпирический риск вводится исходя из предположения, что

    *Оценка качества работы алгоритма на обучающей выборке примерно совпадает с ожидаемым качеством работы алгоритма вне ее

    *Обучающая выборка выбрана из нормального распределения по всем признакам

    *Оценка риска только на обучающей выборке – более правильный подход, чем оценка риска на всех возможных данных

    12. Недостатки k-means:

    *Необходимость подбирать k, неустойчивость от выбора начального приближения центров кластеров

    *Неинтерпретируемость

    *Плохое качество работы

    13. Выберете верное утверждение:

    *Для линейной регрессии возможно аналитически найти решение задачи минимизации эмпирического риска только в одномерном случае

    *Линейная регрессия допускает аналитическое решение задачи минимизации суммы квадратов расстояния от предсказанных меток до верных ответов в случае любой размерности

    *Для линейной регрессии не существует решения задачи минимизации эмпирического риска

    14. Процедура LearnID3 состоит в:

    *Последовательном построении решающего дерева посредством поиска предиката с максимальной информативностью на каждом шаге и разделении обучающей выборки на две части по этому предикату до тех пор, пока не будет достигнуто нужное число вершин в дереве

    *Последовательном построении решающего дерева посредством разбиения обучающей выборки на случайные подвыборки с сохранением отношения числа элементов одного класса к числу элементов другого класса

    *В индексации вершин решающего дерева особым способом

    *В особом способе полива тропических растений в наших широтах

    15. Метод K-Means - Это:

    *Метрический метод классификации, основанный на усреднении расстояний до k ближайших соседей

    *Метод кластеризации

    *Метод валидации модели, основанный на усреднении ошибки по к прогонам модели на тестовых данных

    16. В каком случае метрика accuracy будет репрезентативной

    *Когда все виды ошибок имеют для нас одинаковую важность, и может быть дисбаланс классов

    *Когда все виды ошибок имеют для нас одинаковую важность, но дисбаланса классов быть не должно

    * Когда дисбаланс классов может быть, и ошибки могут иметь любое соотношение важности

    17. Метод опорных векторов (Support Vectors Machine, SVM):

    *Строит оптимальную разделяющую гиперплоскость, максимизируя ширину полосы между двумя классами

    *Аппроксимирует искомую функцию, обучаясь при помощи градиентных методов, решает задачу регрессии

    *Проводит гиперповерхность, минимизируя сумму квадратов расстояний элементов обучающей выборки до этой гиперповерхности

    18. Задача понижения размерности признакового пространства – это задача

    *Обучения с учителем

    *Обучения без учителя

    *Обучения с подкреплением

    19. Градиентный бустинг - это:

    *Усиление обобщающей способности модели посредством использования нескольких градиентных методов оптимизации

    *Композиционный алгоритм (обычно над решающими деревьями), основанный на идее построения нового элемента композиции на каждой итерации таким образом, что следующее приближение вектора ответов алгоритма отличается от текущего на градиент ошибки

    *Композиционный алгоритм над решающими деревьями, основанный на идее голосования классификаторов, проводимого особым способом, с приписыванием константных весов каждому классификатору

    20. Если мы предсказываем средние затраты на обслуживание машины, то максимальная скорость разгона машины – это

    *Бинарный признак

    *Непрерывный признак

    *Номинальный признак

    21. Архитектура полносвязной нейронные сети основана на идее

    *обобщения низкоуровневых признаков и генерирования на их основе более высокоуровневых

    *Построения разделяющей гиперплоскости

    *Минимизации лосс-функции без использования градиентных методов

    22. Что такое машинный перевод?

    *Обучающая выборка выбрана из нормального распределения по всем признакам

    *композиционный алгоритм над решающими деревьями, основанный на идее голосования классификаторов, проводимого особым способом, с приписыванием константных весов каждому классификатору

    *процесс перевода текстов с одного естественного языка на другой с помощью специальной компьютерной программы

    23. Функции активации в нейронных сетях:

    *Нелинейны (глобально) и вносят неоднородность в сигнал при прямом проходе

    *Линейны и нужны для проверки работоспособности модели

    *Активируют нейросеть в разных режимах работы

    24. При прямом проходе через Feed Forward Neural Network:

    *Происходит обновление весов модели на основе градиентов, посчитанных на предыдущей итерации

    *Происходит выстраивание архитектуры модели посредством подбора числа слоев и их размеров

    *Сигнал передается посредством последовательного матричного умножения и применения нелинейных функций активации

    25. Отметьте верные высказывания о функциях активации:

    *Функция активации сигмоида лежит в диапазоне [0,1] и может быть интерпретирована как вероятность, а потому часто используется для решения задач бинарной классификации. Функция ReLU - кусочно-линейная

    *Функция Leacky ReLU - всюду дифференцируема. Популярная функция активации гиперболический тангенс может быть использована, как решающая функция для задачи регрессии. Производная сигмоидальной функции не выражается аналитически через значение самой функции в данной точке

    *Все функции активации взаимозаменяемы вследствие того, что имеют одну и ту же область значений и область определения

    26. Переобучение – это эффект, возникающий при

    *Излишней сложности модели по отношению к сложности обучающей выборки, из-за чего происходит “заучивание” данных

    *Слишком долгом обучении модели, из-за чего она теряет свою предсказательную способность вследствие увеличения энтропии весов

    *Усталости специалиста по машинному обучению от того, что его модели слишком долго учатся

    27. Лучший способ борьбы с переобучением:

    *Изменение архитектуры модели

    *регуляризации

    *Увеличение количества данных

    28. Условия Каруша-Куна-Таккера применимы для решения:

    *Любой задачи оптимизации

    *Задачи выпуклой оптимизации

    *Задачи оптимизации произвольной функции на выпуклом множестве Q

    29. Идея Momentum состоит в:

    *Вычислении градиента в точке, к которой алгоритм должен сойтись на текущем шаге, согласно посчитанному моментному члену, а не в той точке, откуда алгоритм производит шаг

    *Использовании идеи физической инерции посредством добавления моментных членов, "скоростей"

    *приближенном, а значит - более быстром("моментальном") вычислении градиентов в текущей точке

    30. Метод подбора адаптированного learning rate на основе оценки исторических градиентов:

    *Nesterov Momentum

    *RMSProp

    *Adagrad

    31. Наиболее популярный на текущий момент метод оптимизации, основанный на идее использования двух моментных членов, предложенный в 2015 году:

    *ADAM

    *Adagrad

    *Adadelta

    32. Все описанные в лекции алгоритмы обладают общим свойством. Каким?

    *Для всех требуется вычисление матрицы Гессе оптимизируемой функции

    *Для всех требуется вычисление градиентов оптимизированной функции

    *Для всех требуется подсчет значения оптимизируемой функции в данной точке

    33. Алгоритм Backpropagation:

    *Состоит в случайном подборе весов модели до тех пор, пока не будет достигнут оптимальный набор параметров, минимизирующий ошибку

    *Используется только для оптимизации полносвязных нейросетей

    *Последовательном вычислении градиентов по весам модели, начиная с последнего слоя, по предактивациям соответствующего слоя и градиентам по весам следующего

    Документы
    rezultat-100-ballov-iz-100
    24 Кб
    • Комментарии
    Загрузка комментариев...

    Поделиться
    Назад к списку
    Наши специалисты ответят на любой интересующий вопрос по готовой работе
    Задать вопрос
    Любые темы работ, тестов, задач
    © 2025 Все права защищены. Эксперты сайта Твой-зачет проводят работу по подбору, обработке и структурированию материала по предложенной заказчиком теме. Результат данной работы не является готовым научным трудом, но может служить источником для его написания.
    Наши контакты

    +7 (977) 762-60-60
    +7 (966) 062-65-49
    +7 (495) 978-00-01
    info@твой-зачёт.рф
    Россия, Москва, Ленинградский Проспект, 78, Корп. 1 (временно работаем удаленно, прием клиентов не осуществляем)
    Оставайтесь на связи

    Сделано в ARTBYTE