\n"
361 | ],
362 | "text/markdown": "\nA data.frame: 6 × 9\n\n| | A <dbl> | B <dbl> | C <dbl> | D <dbl> | Quality <chr> | Unit <chr> | Unit_BH <int> | Unit_RJ <int> | Unit_SP <int> |\n|---|---|---|---|---|---|---|---|---|---|\n| 1 | 4.9 | 3.1 | 1.5 | 0.1 | Reject | SP | 0 | 0 | 1 |\n| 2 | 4.8 | 3.4 | 1.6 | 0.2 | Reject | SP | 0 | 0 | 1 |\n| 3 | 6.7 | 2.5 | 5.8 | 1.8 | Refurbish | RJ | 0 | 1 | 0 |\n| 4 | 7.6 | 3.0 | 6.6 | 2.1 | Refurbish | RJ | 0 | 1 | 0 |\n| 5 | 4.9 | 3.1 | 1.5 | 0.1 | Reject | RJ | 0 | 1 | 0 |\n| 6 | 7.2 | 3.6 | 6.1 | 2.5 | Refurbish | SP | 0 | 0 | 1 |\n\n",
363 | "text/latex": "A data.frame: 6 × 9\n\\begin{tabular}{r|lllllllll}\n & A & B & C & D & Quality & Unit & Unit\\_BH & Unit\\_RJ & Unit\\_SP\\\\\n & & & & & & & & & \\\\\n\\hline\n\t1 & 4.9 & 3.1 & 1.5 & 0.1 & Reject & SP & 0 & 0 & 1\\\\\n\t2 & 4.8 & 3.4 & 1.6 & 0.2 & Reject & SP & 0 & 0 & 1\\\\\n\t3 & 6.7 & 2.5 & 5.8 & 1.8 & Refurbish & RJ & 0 & 1 & 0\\\\\n\t4 & 7.6 & 3.0 & 6.6 & 2.1 & Refurbish & RJ & 0 & 1 & 0\\\\\n\t5 & 4.9 & 3.1 & 1.5 & 0.1 & Reject & RJ & 0 & 1 & 0\\\\\n\t6 & 7.2 & 3.6 & 6.1 & 2.5 & Refurbish & SP & 0 & 0 & 1\\\\\n\\end{tabular}\n",
364 | "text/plain": [
365 | " A B C D Quality Unit Unit_BH Unit_RJ Unit_SP\n",
366 | "1 4.9 3.1 1.5 0.1 Reject SP 0 0 1 \n",
367 | "2 4.8 3.4 1.6 0.2 Reject SP 0 0 1 \n",
368 | "3 6.7 2.5 5.8 1.8 Refurbish RJ 0 1 0 \n",
369 | "4 7.6 3.0 6.6 2.1 Refurbish RJ 0 1 0 \n",
370 | "5 4.9 3.1 1.5 0.1 Reject RJ 0 1 0 \n",
371 | "6 7.2 3.6 6.1 2.5 Refurbish SP 0 0 1 "
372 | ]
373 | },
374 | "metadata": {}
375 | }
376 | ]
377 | },
378 | {
379 | "cell_type": "markdown",
380 | "source": [
381 | "## Vamos verificar os resultados?\n",
382 | "\n",
383 | "Essa é uma questão apenas de verificação... cheque no Moodle as possíveis respostas para verificar se você está no caminho certo."
384 | ],
385 | "metadata": {
386 | "id": "ToCNBiguoj7y"
387 | }
388 | },
389 | {
390 | "cell_type": "code",
391 | "metadata": {
392 | "id": "kufV8m77TT_5",
393 | "colab": {
394 | "base_uri": "https://localhost:8080/"
395 | },
396 | "outputId": "3eb6b09c-2bda-4fb7-a55e-a3b0fbfef2f7"
397 | },
398 | "source": [
399 | "cat('Nr de linhas e colunas após as transformações: ', nrow(df), ncol(df))"
400 | ],
401 | "execution_count": 7,
402 | "outputs": [
403 | {
404 | "output_type": "stream",
405 | "name": "stdout",
406 | "text": [
407 | "Nr de linhas e colunas após as transformações: 481 9"
408 | ]
409 | }
410 | ]
411 | },
412 | {
413 | "cell_type": "code",
414 | "metadata": {
415 | "id": "2G8YonR7YYn6",
416 | "colab": {
417 | "base_uri": "https://localhost:8080/",
418 | "height": 86
419 | },
420 | "outputId": "24a5db67-0cac-4463-d871-a36f280b54e9"
421 | },
422 | "source": [
423 | "cat('Frequencias do atributo Quality:\\n')\n",
424 | "table(df$Quality)"
425 | ],
426 | "execution_count": 8,
427 | "outputs": [
428 | {
429 | "output_type": "stream",
430 | "name": "stdout",
431 | "text": [
432 | "Frequencias do atributo Quality:\n"
433 | ]
434 | },
435 | {
436 | "output_type": "display_data",
437 | "data": {
438 | "text/plain": [
439 | "\n",
440 | " Accept Refurbish Reject \n",
441 | " 149 176 156 "
442 | ]
443 | },
444 | "metadata": {}
445 | }
446 | ]
447 | },
448 | {
449 | "cell_type": "code",
450 | "source": [
451 | "cat('Número de Unidades de São Paulo a partir do hotencode:\\n')\n",
452 | "sum(df$Unit_SP)"
453 | ],
454 | "metadata": {
455 | "colab": {
456 | "base_uri": "https://localhost:8080/",
457 | "height": 52
458 | },
459 | "id": "B9dPYPNzpCH7",
460 | "outputId": "df7d8b2e-bd26-447c-e001-ff16160447d5"
461 | },
462 | "execution_count": 9,
463 | "outputs": [
464 | {
465 | "output_type": "stream",
466 | "name": "stdout",
467 | "text": [
468 | "Número de Unidades de São Paulo a partir do hotencode:\n"
469 | ]
470 | },
471 | {
472 | "output_type": "display_data",
473 | "data": {
474 | "text/html": [
475 | "223"
476 | ],
477 | "text/markdown": "223",
478 | "text/latex": "223",
479 | "text/plain": [
480 | "[1] 223"
481 | ]
482 | },
483 | "metadata": {}
484 | }
485 | ]
486 | },
487 | {
488 | "cell_type": "markdown",
489 | "metadata": {
490 | "id": "hFxyggo552J7"
491 | },
492 | "source": [
493 | "# Exercício. Conjuntos de Treinamento e Teste\n",
494 | "\n",
495 | "1. **sample**. Como você viu no material de teoria da aula você deve empregar a função `sample` do R para construir os conjuntos de treinamento e teste. Use para as quantidades de teste `round(0.3*nrow(df))`.\n",
496 | "\n",
497 | "2. **seed**. Empregue `set.seed(123)` para produzir os conjuntos de treinamento e teste e garantir a reprodutibilidade dos resultados\n",
498 | "\n",
499 | "3. **Train e Test**.Em R não existe em geral a necessidade de separarmos as entradas `X` e as saídas `y`. Defina apenas um conjunto de treinamento (tanto com o atributos preditores como objetivo) e teste. A identificação das variáveis preditoras e objetivo será indicada na *formula* empregada como parâmetro do classificador."
500 | ]
501 | },
502 | {
503 | "cell_type": "code",
504 | "metadata": {
505 | "id": "4bPrOL8RUTrc"
506 | },
507 | "source": [
508 | "# Seu código aqui"
509 | ],
510 | "execution_count": null,
511 | "outputs": []
512 | },
513 | {
514 | "cell_type": "markdown",
515 | "metadata": {
516 | "id": "EkVuaMQbewju"
517 | },
518 | "source": [
519 | "# Exercício. Modelo Árvore de Decisão\n",
520 | "\n",
521 | "Empregue o pacote abaixo para construir um modelo de Árvore de Decisão. Em seguida construa a Matriz de Confusão e obtenha a acuracidade do modelo.\n",
522 | "\n",
523 | "1. `rpart()`. Informe somente a *formula* do modelo e o conjunto de dados.\n",
524 | "2. `predict()`. Empregue o parâmetro `type = \"class\"`."
525 | ]
526 | },
527 | {
528 | "cell_type": "code",
529 | "source": [
530 | "install.packages('rpart') # rpart (Árvore de Decisão)\n",
531 | "library(rpart)"
532 | ],
533 | "metadata": {
534 | "colab": {
535 | "base_uri": "https://localhost:8080/"
536 | },
537 | "id": "IHFrTBHHncME",
538 | "outputId": "1b97850f-cf20-4fa8-e025-68aa6d7d5b21"
539 | },
540 | "execution_count": 11,
541 | "outputs": [
542 | {
543 | "output_type": "stream",
544 | "name": "stderr",
545 | "text": [
546 | "Installing package into ‘/usr/local/lib/R/site-library’\n",
547 | "(as ‘lib’ is unspecified)\n",
548 | "\n"
549 | ]
550 | }
551 | ]
552 | },
553 | {
554 | "cell_type": "code",
555 | "metadata": {
556 | "id": "aUA6CsWHWFAO"
557 | },
558 | "source": [
559 | "# Seu código aqui"
560 | ],
561 | "execution_count": null,
562 | "outputs": []
563 | },
564 | {
565 | "cell_type": "markdown",
566 | "metadata": {
567 | "id": "BV3bGDWMBslr"
568 | },
569 | "source": [
570 | "# Exercício. Modelo Naive Bayes\n",
571 | "\n",
572 | "Empregue o pacote abaixo para construir um modelo Naive Bayes. Esse é um modelo também baseado na probabilidade dos valores dos atributos (como em uma Árvore de Decisão), mas que emprega probabilidades condicionais (Teorema de Bayes). Sua implementação de qualquer modo é bastante simples e segue de perto a forma de implementação de uma Árvore de Decisão. Esse modelo está disponível também no scikit-learn e você pode achar interessante pesquisar mais sobre ele.\n",
573 | "\n",
574 | "Depois de construir o modelo construa a Matriz de Confusão e obtenha a acuracidade do modelo.\n",
575 | "\n",
576 | "1. `naive_bayes()`. Informe somente a *formula* do modelo e o conjunto de dados. Note, é `naive_bayes()` e não `naivebayes()`.\n",
577 | "2. `predict()`. Empregue o parâmetro `type = \"class\"`."
578 | ]
579 | },
580 | {
581 | "cell_type": "code",
582 | "source": [
583 | "install.packages('naivebayes')\n",
584 | "library(naivebayes)"
585 | ],
586 | "metadata": {
587 | "colab": {
588 | "base_uri": "https://localhost:8080/"
589 | },
590 | "id": "t5-EQ6Xlmi8r",
591 | "outputId": "ac598120-7008-431e-ab32-b7ae6c37e097"
592 | },
593 | "execution_count": 13,
594 | "outputs": [
595 | {
596 | "output_type": "stream",
597 | "name": "stderr",
598 | "text": [
599 | "Installing package into ‘/usr/local/lib/R/site-library’\n",
600 | "(as ‘lib’ is unspecified)\n",
601 | "\n",
602 | "naivebayes 0.9.7 loaded\n",
603 | "\n"
604 | ]
605 | }
606 | ]
607 | },
608 | {
609 | "cell_type": "code",
610 | "source": [
611 | "# Seu código aqui"
612 | ],
613 | "metadata": {
614 | "id": "ay98iQthmXjK"
615 | },
616 | "execution_count": null,
617 | "outputs": []
618 | },
619 | {
620 | "cell_type": "markdown",
621 | "metadata": {
622 | "id": "O5QSZQjaQT-t"
623 | },
624 | "source": [
625 | "# Exercício. Predição com o Melhor Modelo \n",
626 | "\n",
627 | "Verifique a acuracidade dos dois modelos acima e empregue o melhor deles para fazer a predição dos novos casos. \n",
628 | "\n",
629 | "**Atenção**. Este é um exercício e vamos tomar como base uma única execução com o mesmo conjunto de treinamento e teste criados acima. Idealmente, precisaríamos vários conjuntos diferentes ou, melhor, empregar uma validação cruzada. Pacotes de R como `Caret` podem ser empregados para isso. Aqui a acuracidade pode ser muito próxima e diferir a partir da terceira casa decimal. De qualquer modo, temos um modelo melhor que outro."
630 | ]
631 | },
632 | {
633 | "cell_type": "markdown",
634 | "metadata": {
635 | "id": "tE3jF6DRVqMJ"
636 | },
637 | "source": [
638 | "## Preparação dos Novos Dados\n",
639 | "\n",
640 | "Lembre-se os dados têm de estar no formato que empregamos no treinamento. Faça o hot encode também dos novos dados."
641 | ]
642 | },
643 | {
644 | "cell_type": "code",
645 | "metadata": {
646 | "id": "dnjG8Z5YVczB"
647 | },
648 | "source": [
649 | "# Seu código aqui"
650 | ],
651 | "execution_count": null,
652 | "outputs": []
653 | },
654 | {
655 | "cell_type": "markdown",
656 | "metadata": {
657 | "id": "UCniX4O5kIRV"
658 | },
659 | "source": [
660 | "## Predição"
661 | ]
662 | },
663 | {
664 | "cell_type": "code",
665 | "metadata": {
666 | "id": "W2NmSJKLaOVf"
667 | },
668 | "source": [
669 | "# Seu código aqui"
670 | ],
671 | "execution_count": null,
672 | "outputs": []
673 | }
674 | ]
675 | }
--------------------------------------------------------------------------------
/README.md:
--------------------------------------------------------------------------------
1 | [](https://doi.org/10.5281/zenodo.6702272)
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 | # [Aprendizado de Máquina I](https://github.com/Rogerio-mack/Machine-Learning-I)
10 |
11 | Oliveira, R. (2022). **Aprendizado de Máquina I**. (pp. 1–227). eBook. https://doi.org/10.5281/zenodo.6702272.
12 |
13 | *Para acesso ao conteúdo clique nos Capítulos, no Título, ou acesse* [aqui](https://github.com/Rogerio-mack/Machine-Learning-I).
14 |
15 |
16 |
17 |
18 |
19 | [**Apresentação do Curso**](https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML0_Apresentacao.ipynb)
20 |
21 | 1. [**Introdução ao Aprendizado de Máquina**](https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML1_introducao.ipynb)
22 |
23 |
24 | 2. [**Aprendizado Supervisionado e Regressão Linear**](https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML2_Regressao.ipynb)
25 |
26 | >> [Lab Caso: **Estimando a emissão de gases CO2 de veículos**](https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML2_Regressao_ex.ipynb)
27 |
28 | 3. [**Classificação: Regressão Logística**](https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML3_RegressaoLogistica.ipynb)
29 |
30 | >> [Lab Caso: **Origem dos veículos**](https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML3_RegressaoLogistica_ex.ipynb)
31 |
32 | 4. [**Classificação: Knn**](https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML4_Knn.ipynb)
33 |
34 | >> [Lab Caso: **Predição de Diagnósticos a partir de Dados de Imagens**](https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML4_Knn_ex.ipynb)
35 |
36 | 5. [**Árvores de Decisão e Seleção de Atributos**](https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML5_DecisionTrees.ipynb)
37 |
38 | >> [Lab Caso: **Propensão de Compra de Clientes por Telemarketing**](https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML5_DecisionTrees_ex.ipynb)
39 |
40 | 6. [**Validação Cruzada e GridSearch**](https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML6_CV_GridSearch.ipynb)
41 |
42 | >> [Lab Caso: **Propensão de Compra de Clientes por Telemarketing**](https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML6_CV_GridSearch_ex.ipynb)
43 |
44 | 7. [**Seleção de Modelos**](https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML7_SelecaoDeModelos.ipynb)
45 |
46 | >> [**Projeto em Grupo**](https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML7_ex_projeto.ipynb)
47 |
48 | 8. [**Aprendizado Supervisionado com R**](https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML8_R.ipynb)
49 |
50 | >> [Lab Caso: **Controle de Qualidade de Peças**](https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML8_R_ex.ipynb)
51 |
52 |
53 |
54 |
55 |
56 | # Vídeos e Complementos
57 |
58 | *Acesse* [aqui](https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML0_videos.ipynb).
59 |
60 |
61 |
62 |
63 |
64 | # Cases e Funções
65 |
66 | | Aula | Casos Práticos | Principais Funções |
67 | |--------|-------------------------------------------------------------------------|--------------------------------|
68 | | 1. | - | - |
69 | | 2. | CASO: Estimando o Preço de Veículos | `statsmodel`, `sm.ols` |
70 | | 3. | CASO: Estimando Tumores Malignos ou Benignos | `sklearn` , `LogisticRegression` |
71 | | | CASO: 10 year risk of coronary heart disease CHD | `train_test_split` |
72 | | 4. | CASO: 10 year risk of coronary heart disease CHD | `KNeighborsClassifier`,`sklearn.preprocessing`, `minmax_scale` |
73 | | 5. | CASO: Classifying Political Parties Based on Congressional Votes | `DecisionTreeClassifier`, `sklearn.feature_selection`, `mutual_info_classif`, `SelectKBest`, `StandardScaler`, `LabelEncoder` |
74 | | 6. | CASO: Breast Cancer biopsy | `KFold`, `LabelEncoder`, `GridSearchCV`, `RandomForestClassifier`, `OneHotEncoder`|
75 | | 7. | CASO: Classificando Imagens de Dígitos ( 8×8 ) | `MLPClassifier`, `SVC`, `GridSearchCV` |
76 | | | CASO: Classificando o MNIST (28×28) | `DecisionTreeRegressor`, `SVR`, `XGBRegressor` |
77 | | | CASO: Um Conjunto não Linear, Potencial de Ação de um Neurônio | |
78 | | | CASO: Bike Sharing Prediction | |
79 | | 8. | CASO: Iris Data Set | `lm`, `Caret`, `rpart` |
80 | | | CASO: Biopsy, Câncer de Mama | `naivebayes`, `glm`, `knn` |
81 | | | CASO: Classificando o MNIST (28×28) | |
82 |
83 |
84 |
85 |
86 | # Atividades
87 |
88 | | Aula | Atividade |Nota |
89 | |--------|-----------------------------------------------------------------|--------|
90 | | 1. | Exercícios Moodle | 1.0 |
91 | | 2. | Exercícios Moodle & Lab | 1.0 |
92 | | 3. | Exercícios Moodle & Lab | 1.0 |
93 | | 4. | Exercícios Moodle & Lab + Fórum Regressão Linear X Logística para Classificação | 1.5 |
94 | | 5. | Exercícios Moodle & Lab + Fórum Outros critérios de Seleção de Atributos | 1.5 |
95 | | 6. | Exercícios Moodle & Lab | 1.0 |
96 | | 7. | **Projeto de Aprendizado de Máquina em Grupo** | **2.0** |
97 | | 8. | Exercícios Moodle & Lab | 1.0 |
98 | | | **Total do Curso** | **10.0** |
99 |
100 |
101 |
102 |
103 |
104 |
105 |
106 | # Principais Referências
107 |
108 | Jake VanderPlas. **Python Data Science Handbook** O'Reilly Media, Inc. (2016). ISBN: 9781491912058. Disponível em: https://jakevdp.github.io/PythonDataScienceHandbook/. Acesso: 06 de Novembro de 2021.
109 |
110 | Kotu, Vijay; Deshpande, Balachandre **Data Science: concepts and practice**. 2nd ed. Cambridge, [England]: Morgan Kaufmann, c2019. E-book (570 p.) ISBN 9780128147627 (electronic bk.). Disponível em: http://pergamum.mackenzie.br:8080/pergamumweb/vinculos/00003c/00003cef.jpg.
111 |
112 | Larose, Chantal D.; Larose, Daniel T. **Data Science Using Python and R** Hoboken: Wiley, c2019. E-book (259 p.) (Wiley Series on Methods and Applications in Data Mining Ser.). ISBN 9781119526834 (electronic bk.). Disponível em: https://www3.mackenzie.br/biblioteca_virtual/index.php?tipoBiblio=ebookcentral&flashObg=n
113 |
114 | Géron, A. **Hands-on machine learning with Scikit-Learn, Keras and TensorFlow: concepts, tools, and techniques to build intelligent systems**, 2nd ed. (2019) O'Reilly
115 |
116 | Alpaydin, E. **Machine Learning** (The MIT Press Essential Knowledge). The MIT Press. 2019.
117 |
118 | Kelleher, J. D.; Tierney, Brendan. **Data Science** (The MIT Press Essential Knowledge). The MIT Press. 2018.
119 |
120 | Manapat, Michael. **Introduction to Machine Learning with Python**. Em An Introduction to Machine Learning. EMag Edição 50 (Abr 2017)
121 |
122 |
123 |
124 |
125 |
126 |
127 |
--------------------------------------------------------------------------------
/data/ageandheight.xls:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/data/ageandheight.xls
--------------------------------------------------------------------------------
/data/ageandheight.xlsx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/data/ageandheight.xlsx
--------------------------------------------------------------------------------
/data/comics.xlsx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/data/comics.xlsx
--------------------------------------------------------------------------------
/data/glasses.csv:
--------------------------------------------------------------------------------
1 | Id number,RI,Na,Mg,Al,Si,K,Ca,Ba,Fe,Type of glass
2 | 1,1.52101,13.64,D,1.1,71.78,0.06,8.75,0.0,0.0,1
3 | 2,1.51761,13.89,D,1.36,72.73,0.48,7.83,0.0,0.0,1
4 | 3,1.51618,13.53,C,1.54,72.99,0.39,7.78,0.0,0.0,1
5 | 4,1.51766,13.21,D,1.29,72.61,0.57,8.22,0.0,0.0,1
6 | 5,1.51742,13.27,D,1.24,73.08,0.55,8.07,0.0,0.0,1
7 | 6,1.51596,12.79,D,1.62,72.97,0.64,8.07,0.0,0.26,1
8 | 7,1.51743,13.3,D,1.14,73.09,0.58,8.17,0.0,0.0,1
9 | 8,1.51756,13.15,D,1.05,73.24,0.57,8.24,0.0,0.0,1
10 | 9,1.51918,14.04,C,1.37,72.08,0.56,8.3,0.0,0.0,1
11 | 10,1.51755,13.0,D,1.36,72.99,0.57,8.4,0.0,0.11,1
12 | 11,1.51571,12.72,B,1.56,73.2,0.67,8.09,0.0,0.24,1
13 | 12,1.51763,12.8,D,1.27,73.01,0.6,8.56,0.0,0.0,1
14 | 13,1.51589,12.88,B,1.4,73.28,0.69,8.05,0.0,0.24,1
15 | 14,1.51748,12.86,C,1.27,73.21,0.54,8.38,0.0,0.17,1
16 | 15,1.51763,12.61,C,1.31,73.29,0.58,8.5,0.0,0.0,1
17 | 16,1.51761,12.81,C,1.23,73.24,0.58,8.39,0.0,0.0,1
18 | 17,1.51784,12.68,D,1.16,73.11,0.61,8.7,0.0,0.0,1
19 | 18,1.52196,14.36,D,0.89,71.36,0.15,9.15,0.0,0.0,1
20 | 19,1.51911,13.9,D,1.18,72.12,0.06,8.89,0.0,0.0,1
21 | 20,1.51735,13.02,C,1.69,72.73,0.54,8.44,0.0,0.07,1
22 | 21,1.5175,12.82,C,1.49,72.75,0.54,8.52,0.0,0.19,1
23 | 22,1.51966,14.77,D,0.29,72.02,0.03,9.0,0.0,0.0,1
24 | 23,1.51736,12.78,D,1.29,72.79,0.59,8.7,0.0,0.0,1
25 | 24,1.51751,12.81,C,1.35,73.02,0.62,8.59,0.0,0.0,1
26 | 25,1.5172,13.38,C,1.15,72.85,0.5,8.43,0.0,0.0,1
27 | 26,1.51764,12.98,C,1.21,73.0,0.65,8.53,0.0,0.0,1
28 | 27,1.51793,13.21,C,1.41,72.64,0.59,8.43,0.0,0.0,1
29 | 28,1.51721,12.87,C,1.33,73.04,0.56,8.43,0.0,0.0,1
30 | 29,1.51768,12.56,C,1.43,73.15,0.57,8.54,0.0,0.0,1
31 | 30,1.51784,13.08,C,1.28,72.86,0.6,8.49,0.0,0.0,1
32 | 31,1.51768,12.65,C,1.3,73.08,0.61,8.69,0.0,0.14,1
33 | 32,1.51747,12.84,C,1.14,73.27,0.56,8.55,0.0,0.0,1
34 | 33,1.51775,12.85,C,1.23,72.97,0.61,8.56,0.09,0.22,1
35 | 34,1.51753,12.57,B,1.38,73.39,0.6,8.55,0.0,0.06,1
36 | 35,1.51783,12.69,C,1.34,72.95,0.57,8.75,0.0,0.0,1
37 | 36,1.51567,13.29,B,1.21,72.74,0.56,8.57,0.0,0.0,1
38 | 37,1.51909,13.89,C,1.32,71.81,0.51,8.78,0.11,0.0,1
39 | 38,1.51797,12.74,C,1.35,72.96,0.64,8.68,0.0,0.0,1
40 | 39,1.52213,14.21,D,0.47,71.77,0.11,9.57,0.0,0.0,1
41 | 40,1.52213,14.21,D,0.47,71.77,0.11,9.57,0.0,0.0,1
42 | 41,1.51793,12.79,C,1.12,73.03,0.64,8.77,0.0,0.0,1
43 | 42,1.51755,12.71,B,1.2,73.2,0.59,8.64,0.0,0.0,1
44 | 43,1.51779,13.21,B,1.33,72.76,0.59,8.59,0.0,0.0,1
45 | 44,1.5221,13.73,D,0.72,71.76,0.17,9.74,0.0,0.0,1
46 | 45,1.51786,12.73,B,1.19,72.95,0.62,8.76,0.0,0.3,1
47 | 46,1.519,13.49,C,1.35,71.95,0.55,9.0,0.0,0.0,1
48 | 47,1.51869,13.19,B,1.18,72.72,0.57,8.83,0.0,0.16,1
49 | 48,1.52667,13.99,D,0.71,71.57,0.02,9.82,0.0,0.1,1
50 | 49,1.52223,13.21,D,0.79,71.99,0.13,10.02,0.0,0.0,1
51 | 50,1.51898,13.58,B,1.23,72.08,0.59,8.91,0.0,0.0,1
52 | 51,1.5232,13.72,D,0.51,71.75,0.09,10.06,0.0,0.16,1
53 | 52,1.51926,13.2,B,1.28,72.36,0.6,9.14,0.0,0.11,1
54 | 53,1.51808,13.43,B,1.19,72.84,0.55,9.03,0.0,0.0,1
55 | 54,1.51837,13.14,B,1.28,72.85,0.55,9.07,0.0,0.0,1
56 | 55,1.51778,13.21,B,1.29,72.98,0.51,9.02,0.0,0.09,1
57 | 56,1.51769,12.45,B,1.29,73.7,0.56,9.06,0.0,0.24,1
58 | 57,1.51215,12.99,B,1.12,72.98,0.62,8.35,0.0,0.31,1
59 | 58,1.51824,12.87,C,1.29,72.95,0.6,8.43,0.0,0.0,1
60 | 59,1.51754,13.48,D,1.17,72.99,0.59,8.03,0.0,0.0,1
61 | 60,1.51754,13.39,D,1.19,72.79,0.57,8.27,0.0,0.11,1
62 | 61,1.51905,13.6,D,1.11,72.64,0.14,8.76,0.0,0.0,1
63 | 62,1.51977,13.81,C,1.32,71.72,0.12,8.67,0.69,0.0,1
64 | 63,1.52172,13.51,D,0.88,71.79,0.23,9.54,0.0,0.11,1
65 | 64,1.52227,14.17,D,0.78,71.35,0.0,9.69,0.0,0.0,1
66 | 65,1.52172,13.48,D,0.9,72.01,0.18,9.61,0.0,0.07,1
67 | 66,1.52099,13.69,C,1.12,71.96,0.09,9.4,0.0,0.0,1
68 | 67,1.52152,13.05,D,0.87,72.22,0.19,9.85,0.0,0.17,1
69 | 68,1.52152,13.05,D,0.87,72.32,0.19,9.85,0.0,0.17,1
70 | 69,1.52152,13.12,C,0.9,72.2,0.23,9.82,0.0,0.16,1
71 | 70,1.523,13.31,C,0.82,71.99,0.12,10.17,0.0,0.03,1
72 | 71,1.51574,14.86,D,1.74,71.87,0.16,7.36,0.0,0.12,2
73 | 72,1.51848,13.64,D,1.27,71.96,0.54,8.32,0.0,0.32,2
74 | 73,1.51593,13.09,C,1.52,73.1,0.67,7.83,0.0,0.0,2
75 | 74,1.51631,13.34,C,1.57,72.87,0.61,7.89,0.0,0.0,2
76 | 75,1.51596,13.02,C,1.54,73.11,0.72,7.9,0.0,0.0,2
77 | 76,1.5159,13.02,C,1.51,73.12,0.69,7.96,0.0,0.0,2
78 | 77,1.51645,13.44,D,1.54,72.39,0.66,8.03,0.0,0.0,2
79 | 78,1.51627,13.0,C,1.54,72.83,0.61,8.04,0.0,0.0,2
80 | 79,1.51613,13.92,C,1.25,72.88,0.37,7.94,0.0,0.14,2
81 | 80,1.5159,12.82,C,1.9,72.86,0.69,7.97,0.0,0.0,2
82 | 81,1.51592,12.86,C,2.12,72.66,0.69,7.97,0.0,0.0,2
83 | 82,1.51593,13.25,B,1.43,73.17,0.61,7.86,0.0,0.0,2
84 | 83,1.51646,13.41,C,1.25,72.81,0.68,8.1,0.0,0.0,2
85 | 84,1.51594,13.09,C,1.55,72.87,0.68,8.05,0.0,0.09,2
86 | 85,1.51409,14.25,B,2.08,72.28,1.1,7.08,0.0,0.0,2
87 | 86,1.51625,13.36,C,1.49,72.72,0.45,8.21,0.0,0.0,2
88 | 87,1.51569,13.24,C,1.47,73.25,0.38,8.03,0.0,0.0,2
89 | 88,1.51645,13.4,C,1.52,72.65,0.67,8.08,0.0,0.1,2
90 | 89,1.51618,13.01,C,1.48,72.89,0.6,8.12,0.0,0.0,2
91 | 90,1.5164,12.55,C,1.87,73.23,0.63,8.08,0.0,0.09,2
92 | 91,1.51841,12.93,D,1.11,72.28,0.64,8.96,0.0,0.22,2
93 | 92,1.51605,12.9,B,1.45,73.06,0.44,8.27,0.0,0.0,2
94 | 93,1.51588,13.12,B,1.58,73.26,0.07,8.39,0.0,0.19,2
95 | 94,1.5159,13.24,B,1.47,73.1,0.39,8.22,0.0,0.0,2
96 | 95,1.51629,12.71,B,1.49,73.28,0.67,8.24,0.0,0.0,2
97 | 96,1.5186,13.36,B,1.43,72.26,0.51,8.6,0.0,0.0,2
98 | 97,1.51841,13.02,D,1.06,72.34,0.64,9.13,0.0,0.15,2
99 | 98,1.51743,12.2,B,1.16,73.55,0.62,8.9,0.0,0.24,2
100 | 99,1.51689,12.67,B,1.71,73.21,0.73,8.54,0.0,0.0,2
101 | 100,1.51811,12.96,B,1.43,72.92,0.6,8.79,0.14,0.0,2
102 | 101,1.51655,12.75,B,1.44,73.27,0.57,8.79,0.11,0.22,2
103 | 102,1.5173,12.35,B,1.63,72.87,0.7,9.23,0.0,0.0,2
104 | 103,1.5182,12.62,B,0.83,73.81,0.35,9.42,0.0,0.2,2
105 | 104,1.52725,13.8,B,0.66,70.57,0.08,11.64,0.0,0.0,2
106 | 105,1.5241,13.83,B,1.17,71.15,0.08,10.79,0.0,0.0,2
107 | 106,1.52475,11.45,A,1.88,72.19,0.81,13.24,0.0,0.34,2
108 | 107,1.53125,10.73,A,2.1,69.81,0.58,13.3,3.15,0.28,2
109 | 108,1.53393,12.3,A,1.0,70.16,0.12,16.19,0.0,0.24,2
110 | 109,1.52222,14.43,A,1.0,72.67,0.1,11.52,0.0,0.08,2
111 | 110,1.51818,13.72,A,0.56,74.45,0.0,10.99,0.0,0.0,2
112 | 111,1.52664,11.23,A,0.77,73.21,0.0,14.68,0.0,0.0,2
113 | 112,1.52739,11.02,A,0.75,73.08,0.0,14.96,0.0,0.0,2
114 | 113,1.52777,12.64,A,0.67,72.02,0.06,14.4,0.0,0.0,2
115 | 114,1.51892,13.46,D,1.26,72.55,0.57,8.21,0.0,0.14,2
116 | 115,1.51847,13.1,D,1.19,72.44,0.6,8.43,0.0,0.0,2
117 | 116,1.51846,13.41,D,1.33,72.38,0.51,8.28,0.0,0.0,2
118 | 117,1.51829,13.24,D,1.41,72.33,0.55,8.31,0.0,0.1,2
119 | 118,1.51708,13.72,D,1.81,72.06,0.64,7.88,0.0,0.0,2
120 | 119,1.51673,13.3,D,1.53,72.53,0.65,8.03,0.0,0.29,2
121 | 120,1.51652,13.56,C,1.47,72.45,0.64,7.96,0.0,0.0,2
122 | 121,1.51844,13.25,D,1.32,72.4,0.58,8.42,0.0,0.0,2
123 | 122,1.51663,12.93,C,1.62,72.96,0.64,8.03,0.0,0.21,2
124 | 123,1.51687,13.23,C,1.48,72.84,0.56,8.1,0.0,0.0,2
125 | 124,1.51707,13.48,C,1.71,72.52,0.62,7.99,0.0,0.0,2
126 | 125,1.52177,13.2,D,1.15,72.75,0.54,8.52,0.0,0.0,2
127 | 126,1.51872,12.93,D,1.56,72.51,0.58,8.55,0.0,0.12,2
128 | 127,1.51667,12.94,D,1.26,72.75,0.56,8.6,0.0,0.0,2
129 | 128,1.52081,13.78,B,1.43,71.99,0.49,9.85,0.0,0.17,2
130 | 129,1.52068,13.55,A,1.67,72.18,0.53,9.57,0.27,0.17,2
131 | 130,1.5202,13.98,A,1.63,71.76,0.39,10.56,0.0,0.18,2
132 | 131,1.52177,13.75,A,1.36,72.19,0.33,11.14,0.0,0.0,2
133 | 132,1.52614,13.7,A,1.36,71.24,0.19,13.44,0.0,0.1,2
134 | 133,1.51813,13.43,D,1.18,72.49,0.58,8.15,0.0,0.0,2
135 | 134,1.518,13.71,D,1.54,71.81,0.54,8.21,0.0,0.15,2
136 | 135,1.51811,13.33,D,1.25,72.78,0.52,8.12,0.0,0.0,2
137 | 136,1.51789,13.19,D,1.3,72.33,0.55,8.44,0.0,0.28,2
138 | 137,1.51806,13.0,D,1.08,73.07,0.56,8.38,0.0,0.12,2
139 | 138,1.51711,12.89,D,1.57,72.96,0.61,8.11,0.0,0.0,2
140 | 139,1.51674,12.79,C,1.54,73.36,0.66,7.9,0.0,0.0,2
141 | 140,1.51674,12.87,C,1.64,73.14,0.65,7.99,0.0,0.0,2
142 | 141,1.5169,13.33,C,1.61,72.54,0.68,8.11,0.0,0.0,2
143 | 142,1.51851,13.2,D,1.07,72.83,0.57,8.41,0.09,0.17,2
144 | 143,1.51662,12.85,C,1.44,73.01,0.68,8.23,0.06,0.25,2
145 | 144,1.51709,13.0,B,1.79,72.72,0.66,8.18,0.0,0.0,2
146 | 145,1.5166,12.99,B,1.23,72.97,0.58,8.81,0.0,0.24,2
147 | 146,1.51839,12.85,D,1.24,72.57,0.62,8.68,0.0,0.35,2
148 | 147,1.51769,13.65,D,1.11,72.77,0.11,8.6,0.0,0.0,3
149 | 148,1.5161,13.33,C,1.34,72.67,0.56,8.33,0.0,0.0,3
150 | 149,1.5167,13.24,C,1.38,72.7,0.56,8.44,0.0,0.1,3
151 | 150,1.51643,12.16,C,1.35,72.89,0.57,8.53,0.0,0.0,3
152 | 151,1.51665,13.14,B,1.76,72.48,0.6,8.38,0.0,0.17,3
153 | 152,1.52127,14.32,D,0.83,71.5,0.0,9.49,0.0,0.0,3
154 | 153,1.51779,13.64,D,0.65,73.0,0.06,8.93,0.0,0.0,3
155 | 154,1.5161,13.42,B,1.22,72.69,0.59,8.32,0.0,0.0,3
156 | 155,1.51694,12.86,C,1.31,72.61,0.61,8.79,0.0,0.0,3
157 | 156,1.51646,13.04,B,1.26,73.01,0.52,8.58,0.0,0.0,3
158 | 157,1.51655,13.41,B,1.28,72.64,0.52,8.65,0.0,0.0,3
159 | 158,1.52121,14.03,D,0.58,71.79,0.11,9.65,0.0,0.0,3
160 | 159,1.51776,13.53,B,1.52,72.04,0.58,8.79,0.0,0.0,3
161 | 160,1.51796,13.5,B,1.63,71.94,0.57,8.81,0.0,0.09,3
162 | 161,1.51832,13.33,B,1.54,72.14,0.56,8.99,0.0,0.0,3
163 | 162,1.51934,13.64,C,0.75,72.65,0.16,8.89,0.15,0.24,3
164 | 163,1.52211,14.19,D,0.91,71.36,0.23,9.14,0.0,0.37,3
165 | 164,1.51514,14.01,B,3.5,69.89,1.68,5.87,2.2,0.0,5
166 | 165,1.51915,12.73,A,1.86,72.69,0.6,10.09,0.0,0.0,5
167 | 166,1.52171,11.56,A,1.56,72.86,0.47,11.41,0.0,0.0,5
168 | 167,1.52151,11.03,A,1.56,73.44,0.58,11.62,0.0,0.0,5
169 | 168,1.51969,12.64,A,1.65,73.75,0.38,11.53,0.0,0.0,5
170 | 169,1.51666,12.86,A,1.83,73.88,0.97,10.17,0.0,0.0,5
171 | 170,1.51994,13.27,A,1.76,73.03,0.47,11.32,0.0,0.0,5
172 | 171,1.52369,13.44,A,1.58,72.22,0.32,12.24,0.0,0.0,5
173 | 172,1.51316,13.02,A,3.04,70.48,6.21,6.96,0.0,0.0,5
174 | 173,1.51321,13.0,A,3.02,70.7,6.21,6.93,0.0,0.0,5
175 | 174,1.52043,13.38,A,1.4,72.25,0.33,12.5,0.0,0.0,5
176 | 175,1.52058,12.85,A,2.17,72.18,0.76,9.7,0.24,0.51,5
177 | 176,1.52119,12.97,A,1.51,73.39,0.13,11.27,0.0,0.28,5
178 | 186,1.51131,13.69,B,1.81,72.81,1.76,5.43,1.19,0.0,7
179 | 187,1.51838,14.32,B,2.22,71.25,1.46,5.79,1.63,0.0,7
180 | 188,1.52315,13.44,B,1.23,72.38,0.6,8.83,0.0,0.0,7
181 | 189,1.52247,14.86,B,2.06,70.26,0.76,9.76,0.0,0.0,7
182 | 190,1.52365,15.79,A,1.31,70.43,0.31,8.61,1.68,0.0,7
183 | 191,1.51613,13.88,A,1.79,73.1,0.0,8.67,0.76,0.0,7
184 | 192,1.51602,14.85,A,2.38,73.28,0.0,8.76,0.64,0.09,7
185 | 193,1.51623,14.2,A,2.79,73.46,0.04,9.04,0.4,0.09,7
186 | 194,1.51719,14.75,A,2.0,73.02,0.0,8.53,1.59,0.08,7
187 | 195,1.51683,14.56,A,1.98,73.29,0.0,8.52,1.57,0.07,7
188 | 196,1.51545,14.14,A,2.68,73.39,0.08,9.07,0.61,0.05,7
189 | 197,1.51556,13.87,A,2.54,73.23,0.14,9.41,0.81,0.01,7
190 | 198,1.51727,14.7,A,2.34,73.28,0.0,8.95,0.66,0.0,7
191 | 199,1.51531,14.38,A,2.66,73.1,0.04,9.08,0.64,0.0,7
192 | 200,1.51609,15.01,A,2.51,73.05,0.05,8.83,0.53,0.0,7
193 | 201,1.51508,15.15,A,2.25,73.5,0.0,8.34,0.63,0.0,7
194 | 202,1.51653,11.95,A,1.19,75.18,2.7,8.93,0.0,0.0,7
195 | 203,1.51514,14.85,A,2.42,73.72,0.0,8.39,0.56,0.0,7
196 | 204,1.51658,14.8,A,1.99,73.11,0.0,8.28,1.71,0.0,7
197 | 205,1.51617,14.95,A,2.27,73.3,0.0,8.71,0.67,0.0,7
198 | 206,1.51732,14.95,A,1.8,72.99,0.0,8.61,1.55,0.0,7
199 | 207,1.51645,14.94,A,1.87,73.11,0.0,8.67,1.38,0.0,7
200 | 208,1.51831,14.39,A,1.82,72.86,1.41,6.47,2.88,0.0,7
201 | 209,1.5164,14.37,A,2.74,72.85,0.0,9.45,0.54,0.0,7
202 | 210,1.51623,14.14,A,2.88,72.61,0.08,9.18,1.06,0.0,7
203 | 211,1.51685,14.92,A,1.99,73.06,0.0,8.4,1.59,0.0,7
204 | 212,1.52065,14.36,A,2.02,73.42,0.0,8.44,1.64,0.0,7
205 | 213,1.51651,14.38,A,1.94,73.61,0.0,8.48,1.57,0.0,7
206 | 214,1.51711,14.23,A,2.08,73.36,0.0,8.62,1.67,0.0,7
207 |
--------------------------------------------------------------------------------
/data/pressure.xlsx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/data/pressure.xlsx
--------------------------------------------------------------------------------
/erratas.md:
--------------------------------------------------------------------------------
1 |
2 | ### Capítulo: ML2_Regressão
3 |
4 | * Na seção de Predição de novos valores, `predict()`
5 |
6 | > No lugar de: Podemos, agora, empregar nosso modelo para estimar o consumo desconhecido de um novo veículo na cidade, mas para o qual conhecemos sua potência.
7 |
8 | > Substituído por: Podemos agora empregar nosso modelo para estimar o **preço** de um novo veículo para o qual conhecemos a potência.
9 |
10 | > Corrigido: 2023.03.07 Indicado por: **Amanda Noronha Cohen**
11 |
12 | ### Capítulo: ML_Regressão_Logística
13 |
14 | > Ajuste do título do case do exercício, trocando **Consumo dos Veículos** por **Origem dos Veículos**. Apenas o título, o enunciado já estava correto.
15 |
16 | > Corrigido: 2023.03.17
17 |
--------------------------------------------------------------------------------
/formularios/ML1_1_formulario.docx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/formularios/ML1_1_formulario.docx
--------------------------------------------------------------------------------
/formularios/ML1_2_formulario.docx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/formularios/ML1_2_formulario.docx
--------------------------------------------------------------------------------
/formularios/ML1_3_formulario.docx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/formularios/ML1_3_formulario.docx
--------------------------------------------------------------------------------
/formularios/ML1_4_formulario.docx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/formularios/ML1_4_formulario.docx
--------------------------------------------------------------------------------
/formularios/ML1_5_formulario.docx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/formularios/ML1_5_formulario.docx
--------------------------------------------------------------------------------
/formularios/ML1_6_formulario.docx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/formularios/ML1_6_formulario.docx
--------------------------------------------------------------------------------
/formularios/ML1_7_formulario.docx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/formularios/ML1_7_formulario.docx
--------------------------------------------------------------------------------
/formularios/ML1_8_formulario.docx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/formularios/ML1_8_formulario.docx
--------------------------------------------------------------------------------
/formularios/ML1_Plano de Ensino.docx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/formularios/ML1_Plano de Ensino.docx
--------------------------------------------------------------------------------
/formularios/~$1_Plano de Ensino.docx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/formularios/~$1_Plano de Ensino.docx
--------------------------------------------------------------------------------
/gift/ML1_gift.txt:
--------------------------------------------------------------------------------
1 | $CATEGORY: $course$/ML1_gift
2 |
3 | Considere as seguintes fases do processo de Ciência de Dados (CRISP-DM)\:
4 | \n 1. Modelagem
5 | \n 2. Preparação dos Dados
6 | \n 3. Entendimento dos Dados
7 | \n 4. Avaliação
8 | \n 5. Distribuição
9 | \n 6. Entendimento do Negócio
10 | \n A ordem correta dessas fases é dada por\:
11 | {
12 | = 6,3,2,1,4,5
13 | ~ 6,4,2,3,1,5
14 | ~ 6,4,3,2,1,5
15 | ~ 6,1,3,2,4,5
16 | ~ 1,6,3,2,5,4
17 | }
18 |
19 | Associe corretamente as tarefas e a fase do processo de Ciência de Dados (CRISP-DM) mais comumente associada\:
20 | {
21 | = Seleção de Data Cleaning -> Preparação dos Dados
22 | = Verificar a Qualidade dos Dados -> Entendimento dos Dados
23 | = Selecionar o Modelo a ser empregado -> Modelagem
24 | }
25 |
26 | Associe corretamente os modelos de Aprendizado\:
27 | {
28 | = Aprendizado Não Supervisionado -> Descritivo
29 | = Aprendizado Supervisionado -> Preditivo
30 | = Aprendizado de Reforço -> Prescritivo
31 | }
32 |
33 | Associe corretamente as tarefas e o modelo de Aprendizado mais comumente associado\:
34 | {
35 | = Clusterização (agrupamentos) -> Aprendizado Não Supervisionado
36 | = Classificação -> Aprendizado Supervisionado
37 | = Jogos com Interação -> Aprendizado de Reforço
38 | }
39 |
40 | Na prática, 80% do esforço de se criar modelos de Aprendizado de Máquina nas empresas
41 | envolve atividades preliminares de Análise, Exploração e Preparação dos Dados. {T}
42 |
43 | O Aprendizado de Máquina envolve a busca de um padrão nos dados trazendo um novo paradigma de programação.
44 | \n Considere as seguintes potenciais aplicações do Aprendizado de Máquina\:
45 | \n i) Determinar através de uma vasta coleta de dados de órbitas de satélites o local de queda de um satélite no final de sua vida útil
46 | \n ii) Determinar por inspecção visual chapas de aço tratadas com baixa qualidade para rejeito com base em dados históricos
47 | \n iii) Identificar o perfil de desistência de alunos matriculados em cursos de graduação para planejar ações de redução de evasão
48 | \n
49 | São aplicações mais corretas do Aprendizado de Máquina\:
50 | {
51 | ~ Todas
52 | ~ Somente i
53 | ~ Somente i, ii
54 | = Somente ii, iii
55 | ~ Somente ii
56 | #### Órbitas de satélites seguem modelos físicos conhecidos, eles serão melhores que modelos obtidos por dados
57 | }
58 |
59 | Os Rótulos dos dados em um conjunto de treinamento não podem ser valores numéricos, eles devem ser categorias como
60 | Benigno/Maligno ou Spam/NotSpam. {F}
61 |
62 | A Classificação nos modelos de Aprendizado Supervisionado só permitem a classificação de valores binários como
63 | Benigno/Maligno, True/False, 0/1 ou Spam/NotSpam. {F}
64 |
65 | Considere as seguintes afirmativas sobre os modelos de Aprendizado Máquina Supervisionados\:
66 | \n i. Requerem um conjunto de dados de treinamento, isto é, um conjunto de exemplos com dados rotulados
67 | \n ii. São modelos que empregamos para inferência de novos casos
68 | \n iii. Podem ser divididos em modelos de Classificação ou Regressão, conforme os dados que desejamos prever sejam
69 | valores contínuos ou discretos
70 | \n Estão corretas\:
71 | {
72 | = Somente ii
73 | ~ Somente i, ii
74 | ~ Somente i, iii
75 | ~ Somente ii, iii
76 | ~ Somente i
77 | }
78 |
79 | O Aprendizado de Máquina é uma subárea da IA e ambos são cobertos completamente por um campo maior que é a Ciência de Dados {F}.
80 |
81 |
--------------------------------------------------------------------------------
/gift/ML2_gift.txt:
--------------------------------------------------------------------------------
1 | $CATEGORY: $course$/ML2_gift
2 |
3 | Considere as seguintes afirmativas sobre modelos de Aprendizado Supervisionado\:
4 | \n i. O conjunto de Treinamento no Aprendizado Supervisionado é um conjunto em que cada amostra possuí um rótulo com
5 | um número discreto de valores
6 | \n ii. O Aprendizado ou Treinamento consiste basicamente no ajuste dos parâmetros de uma classe de modelos aos dados
7 | \n iii. Os modelos de regressão tratam de estimar quantidades enquanto os modelos de classificação estimam categorias, ou
8 | valores discretos, associados aos dados
9 | \n Estão corretas\:
10 | {
11 | = Somente ii
12 | ~ Somente i, ii
13 | ~ Somente i, iii
14 | ~ Somente ii, iii
15 | ~ Somente i
16 | }
17 |
18 | Em uma regressão linear simples os coeficientes de um modelo de regressão linear dependem unicamente da covariância,
19 | variância e média dos valores das variáveis dependente e independente. Podem, portanto, serem aplicados a qualquer
20 | conjuntos dados numéricos, independente de terem ou não uma relação linear entre eles. {T}
21 |
22 | Se coeficiente de determinação R2 for próximo de 1, certamente os valores da variável dependente tem como causa os
23 | valores das variáveis independentes do modelo. {F}
24 |
25 | Se coeficiente de determinação R2 for próximo de 0, isso indicará não haver qualquer relação entre a variável dependente
26 | e as variáveis preditoras (independentes) do modelo. {F}
27 |
28 | Considere as seguintes afirmativas sobre os modelos de Regressão Linear\:
29 | \n i. Os modelos lineares não podem ser aplicados à transformações à variável dependente y, como Log(y),
30 | pois neste caso não teremos um modelo linear
31 | \n ii. Para um mesmo conjunto de dados (X,y) pode-se avaliar diferentes modelos de regressão linear
32 | empregando-se diferentes subconjuntos de X
33 | \n iii. Modelos de regressão linear com mais variáveis preditoras são sempre melhores modelos
34 | \n Estão corretas\:
35 | {
36 | = Somente ii
37 | ~ Somente i, ii
38 | ~ Somente i, iii
39 | ~ Somente ii, iii
40 | ~ Somente i
41 | }
42 |
43 | Por padrão, os p-values dos coeficientes de uma regressão linear, para que sejam significativos devem ser\:
44 | {
45 | = Menores que 0.05
46 | ~ Maiores que 0.05
47 | ~ Menores que 0.01
48 | ~ Próximos de 1
49 | ~ Maiores que 0
50 | }
51 |
52 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML2_Regressao_ex.ipynb
53 | Quais os coeficientes obtidos na regressão CO2EMISSIONS \= A + B × FUELCONSUMPTION_COMB?
54 | {
55 | = 68.38 e 16.22
56 | ~ 64.38 e 18.22
57 | ~ 63.38 e 17.22
58 | ~ 61.38 e 19.22
59 | ~ 60.38 e 21.22
60 | }
61 |
62 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML2_Regressao_ex.ipynb
63 | Qual a predição, a partir do modelo linear CO2EMISSIONS \= A + B × FUELCONSUMPTION_COMB
64 | para os valores FUELCONSUMPTION_COMB \= 4 e 28?
65 | {
66 | = 133.26 e 522.54
67 | ~ 143.26 e 512.54
68 | ~ 153.26 e 524.54
69 | ~ 183.26 e 542.54
70 | ~ 132.26 e 522.54
71 | }
72 |
73 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML2_Regressao_ex.ipynb
74 | Qual o R-Squared para o modelo linear CO2EMISSIONS \= A + B × FUELCONSUMPTION_COMB + C × ENGINESIZE?
75 | {
76 | ~ 0.764
77 | ~ 0.799
78 | ~ 0.754
79 | ~ 0.734
80 | = 0.858
81 | }
82 |
83 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML2_Regressao_ex.ipynb
84 | Qual a predição, a partir do modelo linear CO2EMISSIONS \= A + B × FUELCONSUMPTION_COMB + C × ENGINESIZE
85 | para um veículo com FUELCONSUMPTION_COMB \= 10 e ENGINESIZE \= 2?
86 | {
87 | = 214.59
88 | ~ 213.59
89 | ~ 211.59
90 | ~ 222.59
91 | ~ 200.59
92 | }
93 |
94 |
--------------------------------------------------------------------------------
/gift/ML3_gift.txt:
--------------------------------------------------------------------------------
1 | $CATEGORY: $course$/ML3_gift
2 |
3 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML3_RegressaoLogistica_ex.ipynb
4 | \n Qual atributo apresenta valores ausentes e quantas linhas foram excluídas dos dados?
5 | {
6 | = horsepower, 6
7 | ~ horsepower, 9
8 | ~ mpg, 6
9 | ~ mpg, 9
10 | ~ mpg, 12
11 | }
12 |
13 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML3_RegressaoLogistica_ex.ipynb
14 | \n Quantos veículos usa e non-usa foram obtidos?
15 | {
16 | = 245, 147
17 | ~ 244, 148
18 | ~ 243, 149
19 | ~ 242, 150
20 | ~ 241, 151
21 | }
22 |
23 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML3_RegressaoLogistica_ex.ipynb
24 | \n Qual a acuracidade (score) obtido pelo primeiro modelo com entradas (mpg e cylinders) sobre o conjunto de teste?
25 | {
26 | = 0.805
27 | ~ 0.85
28 | ~ 0.905
29 | ~ 0.95
30 | ~ 0.59
31 | }
32 |
33 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML3_RegressaoLogistica_ex.ipynb
34 | \n Qual o resultado da classificação do modelo para carros com valorses mínimos e máximos de mpg e cylinders?
35 | {
36 | = 'non-usa', 'usa'
37 | ~ 'non-usa', 'non-usa'
38 | ~ 'usa', 'usa'
39 | ~ 'usa', 'non-usa'
40 | }
41 |
42 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML3_RegressaoLogistica_ex.ipynb
43 | \n Qual atributo não é um preditor e precisa, em conjunto com a variável dependente, ser excluída das entradas do treinamento?
44 | {
45 | = name, pois é um identificador único
46 | ~ model-year, pois é uma data
47 | ~ cylinders, pois já foi usado no modelo anterior
48 | ~ displacement, pois não é significativo
49 | ~ acceleration, pois contém outliers
50 | }
51 |
52 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML3_RegressaoLogistica_ex.ipynb
53 | \n Qual a acuracidade (score) obtido pelo segundo modelo com todas entradas válidas sobre o conjunto de teste?
54 | {
55 | = 0.881
56 | ~ 0.781
57 | ~ 0.681
58 | ~ 0.981
59 | ~ 0.581
60 | }
61 |
62 | Os modelos de regressão logistica, \n
63 | \n i. Podem considerar qualquer número de variáveis independentes
64 | \n ii. Podem considerar qualquer número de variáveis dependentes
65 | \n iii. Podem ser utilizados para determinação de classes
66 | \n Quais afirmações estão corretas?
67 | {
68 | = Somente i., iii
69 | ~ Somente i.
70 | ~ Somente ii., iii.
71 | ~ Somente ii.
72 | ~ Todas estão corretas.
73 | }
74 |
75 | Os modelos de regressão logistica, \n
76 | \n i. Consideram sempre a variável dependente como sendo discreta
77 | \n ii. Podem considerar variáveis independentes não numéricas
78 | \n iii. Consideram sempre a variável independente como sendo dicotômica, isto é, assume somente um valor ou outro
79 | \n Quais afirmações estão corretas?
80 | {
81 | = Somente i., iii.
82 | ~ Somente i.
83 | ~ Somente ii., iii.
84 | ~ Todas estão erradas.
85 | ~ Todas estão corretas.
86 | }
87 |
88 | Aqui, se necessário, pesquise. O Erro do Tipo-1 em tarefas de Classificação pode ser definido como\:
89 | {
90 | = considerar uma afirmação falsa como sendo verdadeira
91 | ~ utilizar um número muito elevado de dados para construir o modelo
92 | ~ não considerar todos os dados do modelo
93 | ~ utilizar um modelo cujas variáveis não tem relação com o que se deseja explicar
94 | ~ utilizar um número muito baixo de dados para construir o modelo
95 | }
96 |
97 | Aqui, se necessário, pesquise. O cálculo da Eficiência de um modelo de Classificação (acuracidade) pode, dentre outros, ser medido como\:
98 | {
99 | = dividindo o número de acertos pelo número total de dados
100 | ~ dividindo o número de acertos pelo número de erros tipo-1
101 | ~ dividindo o número de acertos pelo número de erros tipo-2
102 | ~ dividindo o número de acertos pelo número de erros tipo-3
103 | ~ dividindo o número de acertos pela soma dos erros
104 | }
--------------------------------------------------------------------------------
/gift/ML4_gift.txt:
--------------------------------------------------------------------------------
1 | $CATEGORY: $course$/ML4_gift
2 |
3 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML4_Knn_ex.ipynb
4 | \n Qual o número de casos benignos e malignos na base de dados breast?
5 | {
6 | = 322, 191
7 | ~ 321, 192
8 | ~ 320, 193
9 | ~ 323 190
10 | ~ 324, 189
11 | }
12 |
13 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML4_Knn_ex.ipynb
14 | \n Qual atributo não faz sentido fazer parte do treinamento?
15 | {
16 | = id, é um identificador
17 | ~ perimeter_mean, pois possui valores muito destoantes dos demais
18 | ~ area_mean, pois possui valores muito destoantes dos demais
19 | ~ diagnosis
20 | ~ nenhum, como não há valores ausentes todos os atributos serão empregados
21 | }
22 |
23 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML4_Knn_ex.ipynb
24 | \n Qual a média dos valores de X_train após a normalização dos dados e a separação dos conjuntos de dados de teste?
25 | \n (essa é uma questão importante de verificação, se você não encontrar o valor aqui você deve revisar o seu código)
26 | {
27 | = 0.2389
28 | ~ 0.1389
29 | ~ 0.5389
30 | ~ 0.7389
31 | ~ 0.9389
32 | }
33 |
34 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML4_Knn_ex.ipynb
35 | \n Qual modelo Knn apresentou maior acuracidade?
36 | {
37 | = K\=11, 0.95
38 | ~ K\=3, 0.94
39 | ~ K\=11, 0.94
40 | ~ K\=3, 0.95
41 | ~ K\=11, 0.98
42 | }
43 |
44 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML4_Knn_ex.ipynb
45 | \n Qual valor no Classification Report corresponde à quantidade de acertos da classe Benignos no conjunto de teste?
46 | {
47 | = 0.97
48 | ~ 0.95
49 | ~ 0.96
50 | ~ 0.93
51 | ~ 0.94
52 | }
53 |
54 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML4_Knn_ex.ipynb
55 | \n Qual o número de instâncias de new_breast foram classificadas como benigno e qual a classificação dos 4 primeiros casos?
56 | {
57 | = 17, 'B' 'M' 'B' 'B'
58 | ~ 21, 'B' 'M' 'B' 'B'
59 | ~ 17, 'B' 'M' 'M' 'B'
60 | ~ 18, 'B' 'M' 'M' 'B'
61 | ~ 21, 'M' 'M' 'M' 'B'
62 | }
63 |
64 | Considere as seguintes afirmativas sobre o modelo k-vizinhos mais próximos.
65 | \n
66 | \ni. O modelo fornece o melhor valor de k para classificação
67 | \nii. O modelo emprega uma função distância para classificação
68 | \niii. As variáveis preditoras precisam ser numéricas (ou transformadas para numéricas) mas a variável objetivo não necessariamente
69 | \n
70 | São corretas\:\n
71 | {
72 | ~ Somente i, ii, iii
73 | ~ Somente i
74 | = Somente ii, iii
75 | ~ Somente i, iii
76 | ~ Somente i, ii
77 | }
78 |
79 | Um modelo relacionado a saúde de bebês de um Laboratório de Exames cria uma classificação A, B ou C para os bebês.
80 | O Seguinte conjunto de dados associa a idade em meses dos bebês e as classes obtidas\:
81 | \n
82 | \n Idade em meses \=(6,7,7,5,8,4,4,3,1,1)
83 | \n Classe \=(A,B,B,A,A,A,C,C,B,A)
84 | \n
85 | Aplicando-se um modelo K-vizinhos mais próximos com K \= 3 e K \= 5, qual o valor estimado da classe para
86 | um bebê com 7.2 meses?{
87 | = B e A respectivamente
88 | ~ A e B respectivamente
89 | ~ B nos dois casos
90 | ~ A para K\=3 e indiferentemente A ou B para K\=5
91 | ~ A nos dois casos
92 | }
93 |
94 | Considere as seguintes afirmativas sobre o modelo de k vizinhos mais próximos\: \n
95 | \n i. Quanto maior o valor de K melhor o resultado do modelo
96 | \n ii. A função distância d() é aplicada às variáveis de entrada (X) e à variável objetivo (y, ou classe),
97 | sendo os vizinhos mais próximos os pontos com menor distância d(X,y)
98 | \n iii. Por empregar a função distância o modelo Knn é sensível à normalização
99 | \n Estão corretas\:
100 | {
101 | ~ Todas corretas
102 | ~ Somente i
103 | ~ Somente i, ii
104 | = Somente iii
105 | ~ Somente ii, iii
106 | }
107 |
108 |
--------------------------------------------------------------------------------
/gift/ML5_gift.txt:
--------------------------------------------------------------------------------
1 | $CATEGORY: $course$/ML5_gift
2 |
3 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML5_DecisionTrees_ex.ipynb
4 | \n Qual o número de casos com propensão à compra? Existem valores nulos (ausentes) nos dados?
5 | {
6 | = 5289, não
7 | ~ 39922, sim
8 | ~ 14567, não
9 | ~ 8992, sim
10 | ~ 5289, não
11 | }
12 |
13 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML5_DecisionTrees_ex.ipynb
14 | \n Quais métodos correspondem aos esquemas de normalização informados no enunciado? (se preferir pesquise)
15 | {
16 | = MinMaxScaler e StandardScaler
17 | ~ StandardScaler e MinMaxScaler
18 | ~ MinMaxScaler e MaxAbsScaler
19 | ~ MaxAbsScaler e MinMaxScaler
20 | ~ Normalizer e StandardScaler
21 | }
22 |
23 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML5_DecisionTrees_ex.ipynb
24 | \n Qual a média dos valores de X_train.age após a normalização dos dados e a separação dos conjuntos de dados de teste? Qual o número de casos de teste?
25 | \n (essa é uma questão importante de verificação, se você não encontrar o valor aqui você deve revisar o seu código)
26 | {
27 | = 0.0034, 13564
28 | ~ 0.0134, 23564
29 | ~ 0.0234, 33564
30 | ~ 0.4034, 3564
31 | ~ 0.5034, 51564
32 | }
33 |
34 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML5_DecisionTrees_ex.ipynb
35 | \n Qual modelo Knn apresentou maior acuracidade?
36 | {
37 | = max_depth\=5, 0.8980
38 | ~ max_depth\=None, 0.8980
39 | ~ max_depth\=None, 0.8710
40 | ~ max_depth\=None, 0.8754
41 | ~ max_depth\=5, 0.8754
42 | }
43 |
44 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML5_DecisionTrees_ex.ipynb
45 | \n O resultado do modelo é o mesmo para as duas classes y e n? Isto é, conseguimos resultados mais ou menos próximos de classificação para quaisquer das classes?
46 | {
47 | = Não, a classe y apresenta mais que o dodro de erro
48 | ~ Não, a classe x apresenta mais que o dodro de erro
49 | ~ Sim, a acuracidade é de aproximadamente 0.90
50 | ~ Sim, observamos valores diferentes apenas por haverem mais casos de uma classe que outra
51 | ~ Nenhuma afirmativa correta
52 | }
53 |
54 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML5_DecisionTrees_ex.ipynb
55 | \n Quantos casos foram classificados como 'y' nos novos casos?
56 | {
57 | = 2
58 | ~ 21
59 | ~ 17
60 | ~ 12
61 | ~ 19
62 | }
63 |
64 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML5_DecisionTrees_ex.ipynb
65 | \n Quais os atributos que carregam mais informação para a determinação da classe y?
66 | {
67 | = month, duration, poutcome
68 | ~ poutcome, month, duration
69 | ~ balance, month, duration
70 | ~ balance, month, poutcome
71 | ~ balance, loan, poutcome
72 | }
73 |
74 | A Entropia, no contexto de dados, pode ser entendida como\:
75 | {
76 | = Uma medida de quantidade de informação
77 | ~ Uma medida de dispersão dos dados
78 | ~ Uma medida de quanto um atributo dos dados é relevante para determinar um outro atributo
79 | ~ Uma medida de correlação
80 | ~ Uma medida de dependência entre duas variáveis
81 | }
82 |
83 | Considere a seguinte tabela de valores em que dados coletados (A,B e C)
84 | parecem determinar o valor de uma variável objetivo T (classe).
85 | \n
86 | \n A | B | C | T
87 | \n 1 | 0 | Y | 1
88 | \n 0 | 1 | Y | 1
89 | \n 1 | 1 | Y | 0
90 | \n 1 | 0 | N | 1
91 | \n
92 | Na construção de uma Árvore de Decisão, que atributos que levam imediatamente a ramos com nós terminais?{
93 | = A com valor 0, B com valor 0, e C com valor N
94 | ~ A com valor 0, B com valor 0 e 1, e C com valor N
95 | ~ A com valor 0, B com valor 0, e C com valor Y
96 | ~ A com valor 1, B com valor 0 e 1, e C com valor N
97 | ~ A com valor 1, B com valor 0, e C com valor Y
98 | }
99 |
100 | Considere as seguintes afirmativas sobre o modelo de árvores de decisão.
101 | \n
102 | \ni. Quanto maior a profundidade da Árvore maior a acuracidade do modelo
103 | \nii. O modelo emprega uma função distância para a classificação
104 | \niii. As variáveis preditoras precisam ser numéricas (ou transformadas para numéricas) mas a variável objetivo não necessariamente
105 | \n
106 | São corretas\:\n
107 | {
108 | ~ Somente i, ii, iii
109 | = Somente iii
110 | ~ Somente ii, iii
111 | ~ Somente i, iii
112 | ~ Somente i, ii
113 | }
114 |
--------------------------------------------------------------------------------
/gift/ML6_gift.txt:
--------------------------------------------------------------------------------
1 | $CATEGORY: $course$/ML6_gift
2 |
3 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML6_CV_GridSearch_ex.ipynb
4 | \n Quantos valores distintos há nos atributos df['Type of glass'] e df['Mg']?
5 | {
6 | = 5 e 4
7 | ~ 4 e 5
8 | ~ 5 e 3
9 | ~ 7 e 4
10 | ~ 7 e 3
11 | }
12 |
13 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML6_CV_GridSearch_ex.ipynb
14 | \n Qual atributo ou atributos requerem hot encode dos seus valores?
15 | {
16 | = 'Mg'
17 | ~ 'Type of glass'
18 | ~ 'Id number'
19 | ~ 'Type of glass' e 'Mg'
20 | ~ 'Id number' e 'Mg'
21 | }
22 |
23 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML6_CV_GridSearch_ex.ipynb
24 | \n Após todas as preparações dos dados quais os valores encontrados na primeira ocorrência do vetor X[0] e seu tamanho?
25 | \n (essa é uma questão importante de verificação, se você não encontrar o valor aqui você deve revisar o seu código)
26 | {
27 | = 0.86032995 e 12
28 | ~ 5.6 e 22
29 | ~ 28 e 2
30 | ~ 0.988 e 9
31 | ~ -1.3 e 82
32 | }
33 |
34 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML6_CV_GridSearch_ex.ipynb
35 | \n Quais os melhores hiperparâmetros encontrados?
36 | {
37 | = criterion='entropy', max_depth=7
38 | ~ criterion='entropy', max_depth=9
39 | ~ criterion='gini', max_depth=5
40 | ~ criterion='log_loss', max_depth=12
41 | ~ criterion='gini', max_depth=3
42 | }
43 |
44 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML6_CV_GridSearch_ex.ipynb
45 | \n Qual a acuracidade e a pior classe avaliada com esse melhor modelo?
46 | {
47 | = 0.90 e V
48 | ~ 0.90 e C
49 | ~ 0.90 e O
50 | ~ 0.33 e V
51 | ~ 0.87 e O
52 | }
53 |
54 | Durante o treinamento dos modelos qual dos conjuntos é idealmente empregado fornecer o ajuste dos hiperparâmetros do modelo e para
55 | a medida final da eficiência do modelo?
56 | {
57 | = Validação e Teste
58 | ~ Teste e Validação
59 | ~ Treinamento e Teste
60 | ~ Treinamento e Validação
61 | ~ Ambos o conjunto de Teste
62 | }
63 |
64 | A Validação Cruzada garante que cada instancia dos dados será empregada ao menos uma vez como teste {T}
65 |
66 | Na Validação Cruzada o resultado de eficiência do modelo (seu score) será o valor máximo da eficiência obtida em cada partição {T}
67 |
68 | São exemplos de hiperparâmetros de um modelo Supervisionado\:
69 | \n i. O número de vizinhos em um modelo de K-vizinhos mais próximos
70 | \n ii. A profundidade de uma Árvore de Decisão e o critério de seleção dos nós raiz (entropia, gini etc.)
71 | \n iii. A quantidade de partições e número de repetições de uma Validação Cruzada
72 | \n Estão corretas\:
73 | {
74 | = Somente i., ii.
75 | ~ Todas alternativas
76 | ~ Somente i.
77 | ~ Somente i., iii.
78 | ~ Somente ii., iii.
79 | }
80 |
81 | Em uma Floresta Aleatória (Random Forest) cada Árvore da Floresta processa uma partição das instâncias dos dados diferente {F}
82 |
83 |
84 |
85 |
86 |
87 |
--------------------------------------------------------------------------------
/gift/ML8_gift.txt:
--------------------------------------------------------------------------------
1 | $CATEGORY: $course$/ML8_gift
2 |
3 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML8_R_ex.ipynb
4 | \n Quantos valores ausentes (NA) foram encontrados nos dados?
5 | {
6 | = 19
7 | ~ 29
8 | ~ 9
9 | ~ 49
10 | ~ 69
11 | }
12 |
13 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML8_R_ex.ipynb
14 | \n Vamos verificar os resultados de Preparação dos Dados? Assinale a alternativa que contem respectivamente os valores de
15 | número de linhas do dataframe tratado (excluídos os NA) e número de colunas (com Hot Encode e exclusão do id)\:
16 | {
17 | = 481, 9
18 | ~ 1000, 10
19 | ~ 999, 99
20 | ~ 1, 2
21 | ~ 681, 8
22 | }
23 |
24 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML8_R_ex.ipynb
25 | \n Vamos verificar os resultados de Preparação dos Dados? Assinale a alternativa que contem respectivamente os valores de
26 | número de peças Accept e o número de Unidades de São Paulo a partir do hotencode\:
27 | {
28 | = 149, 223
29 | ~ 100, 10
30 | ~ 99, 9
31 | ~ 3, 4
32 | ~ 249, 123
33 | }
34 |
35 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML8_R_ex.ipynb
36 | \n Quais classes de qualidade não teveram nenhum erro de classificação?
37 | {
38 | = Reject
39 | ~ Refurbish
40 | ~ Accept
41 | ~ Accept e Refurbish
42 | ~ Accept e Reject
43 | }
44 |
45 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML8_R_ex.ipynb
46 | \n Qual a acuracidade do modelo de Árvore de Decisão obtida?
47 | {
48 | = 0.9513
49 | ~ 0.7513
50 | ~ 0.8513
51 | ~ 0.9583
52 | ~ 0.8583
53 | }
54 |
55 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML8_R_ex.ipynb
56 | \n Qual a acuracidade do modelo Naive Bayes obtida?
57 | {
58 | ~ 0.9513
59 | ~ 0.7513
60 | ~ 0.8513
61 | = 0.9583
62 | ~ 0.8583
63 | }
64 |
65 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML8_R_ex.ipynb
66 | \n Qual o modelo de melhor resultado de acuracidade?
67 | {
68 | = Naive Bayes
69 | ~ Árvore de Decisão
70 | }
71 |
72 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML8_R_ex.ipynb
73 | \n Na predição dos novos casos empregando o modelo de maior acuracidade as classes obtidas foram\:
74 | {
75 | = Refurbish Refurbish Reject Accept Reject
76 | ~ Refurbish Reject Accept Reject Refurbish
77 | ~ Reject Accept Reject Refurbish Refurbish
78 | ~ Accept Reject Refurbish Refurbish Reject
79 | ~ Reject Refurbish Refurbish Reject Accept
80 | }
81 |
82 | Para responder esta pergunta acesse https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML8_R_ex.ipynb
83 | e talvez você queira pesquisar sobre o modelo SVM.
84 | \n Modelos de SVM (Support Linear Regression) e Regressão Logística são separadores lineares e, portanto, não podemos aplicar esses modelos
85 | (seja em R ou em Python) diretamente no nosso problema de classificação de peças por que\:
86 | {
87 | = Existe mais de dois valores da classe objetivo
88 | ~ Existem atributos preditivos não numéricos
89 | ~ O atributo classe precisa ser numéricos
90 | ~ Esses modelos empregam distância e os dados precisam ser normalizados
91 | ~ Esses são modelos de regressão e não classificação
92 | }
93 |
94 | É uma grande limitação o R não possuir bibliotecas com funcionalidades como o Cross Validation e a separação de dados de treinamento e teste {F}
95 |
96 |
--------------------------------------------------------------------------------
/videos/Ponto de Partida e Professor Resolve - Videos e Complementos.md:
--------------------------------------------------------------------------------
1 | Acesse [aqui](https://colab.research.google.com/github/Rogerio-mack/Machine-Learning-I/blob/main/ML0_videos.ipynb).
2 |
--------------------------------------------------------------------------------
/videos/Resumo_N1_show.ppsx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/videos/Resumo_N1_show.ppsx
--------------------------------------------------------------------------------
/word/ML1_introducao.docx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/word/ML1_introducao.docx
--------------------------------------------------------------------------------
/word/ML2_regressao.docx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/word/ML2_regressao.docx
--------------------------------------------------------------------------------
/word/ML3_RegressaoLogistica.docx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/word/ML3_RegressaoLogistica.docx
--------------------------------------------------------------------------------
/word/ML4_Knn.docx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/word/ML4_Knn.docx
--------------------------------------------------------------------------------
/word/ML5_DecisionTrees.docx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/word/ML5_DecisionTrees.docx
--------------------------------------------------------------------------------
/word/ML6_CV_GridSearch.docx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/word/ML6_CV_GridSearch.docx
--------------------------------------------------------------------------------
/word/ML7_SelecaoDeModelos.docx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/word/ML7_SelecaoDeModelos.docx
--------------------------------------------------------------------------------
/word/ML8_R.docx:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/Rogerio-mack/Machine-Learning-I/6dfe50563f66e150af5d5c8004fa5271c07891e5/word/ML8_R.docx
--------------------------------------------------------------------------------