├── .github └── FUNDING.yml ├── .gitignore ├── Dockerfile.local ├── LICENSE.txt ├── Pipfile ├── Pipfile.lock ├── README.md ├── docker-compose.yml └── notebooks ├── 01_anaconda_notebooks.ipynb ├── 02_pandas.ipynb ├── 03_programacion.ipynb ├── 04_apis.ipynb ├── 05_web_scraping.ipynb ├── 06_intro_visualizacion.Rmd ├── 06_intro_visualizacion.html ├── 07_graficos.ipynb ├── 08_graficos_seaborn.ipynb ├── 09_graficos_mapas.ipynb ├── 10_numpy.ipynb ├── 11_pivotacion_tablas.ipynb ├── 12_bases_de_datos.ipynb ├── 13_produccion.ipynb ├── 14_entornos.ipynb ├── dat ├── README.md ├── airquality.csv ├── alquiler-madrid-distritos.csv ├── alquiler-madrid-municipios.csv ├── contaminacion_mad_201812.csv ├── economist-countries-data.csv ├── listings.csv ├── milanuncios.html ├── neighbourhoods.csv ├── neighbourhoods.geojson ├── ufos.csv ├── venta-madrid-distritos.csv └── venta-madrid-municipios.csv └── soluciones ├── 02_pandas.ipynb ├── 05_web_scraping.ipynb ├── 11_pivotacion_tablas.ipynb └── paths.py /.github/FUNDING.yml: -------------------------------------------------------------------------------- 1 | # These are supported funding model platforms 2 | 3 | github: [koldLight] 4 | -------------------------------------------------------------------------------- /.gitignore: -------------------------------------------------------------------------------- 1 | .ipynb_checkpoints 2 | completado/ 3 | .python-version 4 | -------------------------------------------------------------------------------- /Dockerfile.local: -------------------------------------------------------------------------------- 1 | FROM python:3.7.6 2 | ENV SOURCE_PATH /curso 3 | WORKDIR $SOURCE_PATH 4 | COPY Pipfile* $SOURCE_PATH/ 5 | 6 | COPY . . 7 | 8 | RUN pip install pipenv 9 | RUN pip install jupyter 10 | RUN pipenv install --dev 11 | RUN pipenv install ipykernel 12 | RUN pipenv run python -m ipykernel install --user --name='libropython' 13 | -------------------------------------------------------------------------------- /LICENSE.txt: -------------------------------------------------------------------------------- 1 | Attribution-ShareAlike 4.0 International 2 | 3 | ======================================================================= 4 | 5 | Creative Commons Corporation ("Creative Commons") is not a law firm and 6 | does not provide legal services or legal advice. Distribution of 7 | Creative Commons public licenses does not create a lawyer-client or 8 | other relationship. Creative Commons makes its licenses and related 9 | information available on an "as-is" basis. Creative Commons gives no 10 | warranties regarding its licenses, any material licensed under their 11 | terms and conditions, or any related information. Creative Commons 12 | disclaims all liability for damages resulting from their use to the 13 | fullest extent possible. 14 | 15 | Using Creative Commons Public Licenses 16 | 17 | Creative Commons public licenses provide a standard set of terms and 18 | conditions that creators and other rights holders may use to share 19 | original works of authorship and other material subject to copyright 20 | and certain other rights specified in the public license below. The 21 | following considerations are for informational purposes only, are not 22 | exhaustive, and do not form part of our licenses. 23 | 24 | Considerations for licensors: Our public licenses are 25 | intended for use by those authorized to give the public 26 | permission to use material in ways otherwise restricted by 27 | copyright and certain other rights. Our licenses are 28 | irrevocable. Licensors should read and understand the terms 29 | and conditions of the license they choose before applying it. 30 | Licensors should also secure all rights necessary before 31 | applying our licenses so that the public can reuse the 32 | material as expected. Licensors should clearly mark any 33 | material not subject to the license. This includes other CC- 34 | licensed material, or material used under an exception or 35 | limitation to copyright. More considerations for licensors: 36 | wiki.creativecommons.org/Considerations_for_licensors 37 | 38 | Considerations for the public: By using one of our public 39 | licenses, a licensor grants the public permission to use the 40 | licensed material under specified terms and conditions. If 41 | the licensor's permission is not necessary for any reason--for 42 | example, because of any applicable exception or limitation to 43 | copyright--then that use is not regulated by the license. Our 44 | licenses grant only permissions under copyright and certain 45 | other rights that a licensor has authority to grant. Use of 46 | the licensed material may still be restricted for other 47 | reasons, including because others have copyright or other 48 | rights in the material. A licensor may make special requests, 49 | such as asking that all changes be marked or described. 50 | Although not required by our licenses, you are encouraged to 51 | respect those requests where reasonable. More_considerations 52 | for the public: 53 | wiki.creativecommons.org/Considerations_for_licensees 54 | 55 | ======================================================================= 56 | 57 | Creative Commons Attribution-ShareAlike 4.0 International Public 58 | License 59 | 60 | By exercising the Licensed Rights (defined below), You accept and agree 61 | to be bound by the terms and conditions of this Creative Commons 62 | Attribution-ShareAlike 4.0 International Public License ("Public 63 | License"). To the extent this Public License may be interpreted as a 64 | contract, You are granted the Licensed Rights in consideration of Your 65 | acceptance of these terms and conditions, and the Licensor grants You 66 | such rights in consideration of benefits the Licensor receives from 67 | making the Licensed Material available under these terms and 68 | conditions. 69 | 70 | 71 | Section 1 -- Definitions. 72 | 73 | a. Adapted Material means material subject to Copyright and Similar 74 | Rights that is derived from or based upon the Licensed Material 75 | and in which the Licensed Material is translated, altered, 76 | arranged, transformed, or otherwise modified in a manner requiring 77 | permission under the Copyright and Similar Rights held by the 78 | Licensor. For purposes of this Public License, where the Licensed 79 | Material is a musical work, performance, or sound recording, 80 | Adapted Material is always produced where the Licensed Material is 81 | synched in timed relation with a moving image. 82 | 83 | b. Adapter's License means the license You apply to Your Copyright 84 | and Similar Rights in Your contributions to Adapted Material in 85 | accordance with the terms and conditions of this Public License. 86 | 87 | c. BY-SA Compatible License means a license listed at 88 | creativecommons.org/compatiblelicenses, approved by Creative 89 | Commons as essentially the equivalent of this Public License. 90 | 91 | d. Copyright and Similar Rights means copyright and/or similar rights 92 | closely related to copyright including, without limitation, 93 | performance, broadcast, sound recording, and Sui Generis Database 94 | Rights, without regard to how the rights are labeled or 95 | categorized. For purposes of this Public License, the rights 96 | specified in Section 2(b)(1)-(2) are not Copyright and Similar 97 | Rights. 98 | 99 | e. Effective Technological Measures means those measures that, in the 100 | absence of proper authority, may not be circumvented under laws 101 | fulfilling obligations under Article 11 of the WIPO Copyright 102 | Treaty adopted on December 20, 1996, and/or similar international 103 | agreements. 104 | 105 | f. Exceptions and Limitations means fair use, fair dealing, and/or 106 | any other exception or limitation to Copyright and Similar Rights 107 | that applies to Your use of the Licensed Material. 108 | 109 | g. License Elements means the license attributes listed in the name 110 | of a Creative Commons Public License. The License Elements of this 111 | Public License are Attribution and ShareAlike. 112 | 113 | h. Licensed Material means the artistic or literary work, database, 114 | or other material to which the Licensor applied this Public 115 | License. 116 | 117 | i. Licensed Rights means the rights granted to You subject to the 118 | terms and conditions of this Public License, which are limited to 119 | all Copyright and Similar Rights that apply to Your use of the 120 | Licensed Material and that the Licensor has authority to license. 121 | 122 | j. Licensor means the individual(s) or entity(ies) granting rights 123 | under this Public License. 124 | 125 | k. Share means to provide material to the public by any means or 126 | process that requires permission under the Licensed Rights, such 127 | as reproduction, public display, public performance, distribution, 128 | dissemination, communication, or importation, and to make material 129 | available to the public including in ways that members of the 130 | public may access the material from a place and at a time 131 | individually chosen by them. 132 | 133 | l. Sui Generis Database Rights means rights other than copyright 134 | resulting from Directive 96/9/EC of the European Parliament and of 135 | the Council of 11 March 1996 on the legal protection of databases, 136 | as amended and/or succeeded, as well as other essentially 137 | equivalent rights anywhere in the world. 138 | 139 | m. You means the individual or entity exercising the Licensed Rights 140 | under this Public License. Your has a corresponding meaning. 141 | 142 | 143 | Section 2 -- Scope. 144 | 145 | a. License grant. 146 | 147 | 1. Subject to the terms and conditions of this Public License, 148 | the Licensor hereby grants You a worldwide, royalty-free, 149 | non-sublicensable, non-exclusive, irrevocable license to 150 | exercise the Licensed Rights in the Licensed Material to: 151 | 152 | a. reproduce and Share the Licensed Material, in whole or 153 | in part; and 154 | 155 | b. produce, reproduce, and Share Adapted Material. 156 | 157 | 2. Exceptions and Limitations. For the avoidance of doubt, where 158 | Exceptions and Limitations apply to Your use, this Public 159 | License does not apply, and You do not need to comply with 160 | its terms and conditions. 161 | 162 | 3. Term. The term of this Public License is specified in Section 163 | 6(a). 164 | 165 | 4. Media and formats; technical modifications allowed. The 166 | Licensor authorizes You to exercise the Licensed Rights in 167 | all media and formats whether now known or hereafter created, 168 | and to make technical modifications necessary to do so. The 169 | Licensor waives and/or agrees not to assert any right or 170 | authority to forbid You from making technical modifications 171 | necessary to exercise the Licensed Rights, including 172 | technical modifications necessary to circumvent Effective 173 | Technological Measures. For purposes of this Public License, 174 | simply making modifications authorized by this Section 2(a) 175 | (4) never produces Adapted Material. 176 | 177 | 5. Downstream recipients. 178 | 179 | a. Offer from the Licensor -- Licensed Material. Every 180 | recipient of the Licensed Material automatically 181 | receives an offer from the Licensor to exercise the 182 | Licensed Rights under the terms and conditions of this 183 | Public License. 184 | 185 | b. Additional offer from the Licensor -- Adapted Material. 186 | Every recipient of Adapted Material from You 187 | automatically receives an offer from the Licensor to 188 | exercise the Licensed Rights in the Adapted Material 189 | under the conditions of the Adapter's License You apply. 190 | 191 | c. No downstream restrictions. You may not offer or impose 192 | any additional or different terms or conditions on, or 193 | apply any Effective Technological Measures to, the 194 | Licensed Material if doing so restricts exercise of the 195 | Licensed Rights by any recipient of the Licensed 196 | Material. 197 | 198 | 6. No endorsement. Nothing in this Public License constitutes or 199 | may be construed as permission to assert or imply that You 200 | are, or that Your use of the Licensed Material is, connected 201 | with, or sponsored, endorsed, or granted official status by, 202 | the Licensor or others designated to receive attribution as 203 | provided in Section 3(a)(1)(A)(i). 204 | 205 | b. Other rights. 206 | 207 | 1. Moral rights, such as the right of integrity, are not 208 | licensed under this Public License, nor are publicity, 209 | privacy, and/or other similar personality rights; however, to 210 | the extent possible, the Licensor waives and/or agrees not to 211 | assert any such rights held by the Licensor to the limited 212 | extent necessary to allow You to exercise the Licensed 213 | Rights, but not otherwise. 214 | 215 | 2. Patent and trademark rights are not licensed under this 216 | Public License. 217 | 218 | 3. To the extent possible, the Licensor waives any right to 219 | collect royalties from You for the exercise of the Licensed 220 | Rights, whether directly or through a collecting society 221 | under any voluntary or waivable statutory or compulsory 222 | licensing scheme. In all other cases the Licensor expressly 223 | reserves any right to collect such royalties. 224 | 225 | 226 | Section 3 -- License Conditions. 227 | 228 | Your exercise of the Licensed Rights is expressly made subject to the 229 | following conditions. 230 | 231 | a. Attribution. 232 | 233 | 1. If You Share the Licensed Material (including in modified 234 | form), You must: 235 | 236 | a. retain the following if it is supplied by the Licensor 237 | with the Licensed Material: 238 | 239 | i. identification of the creator(s) of the Licensed 240 | Material and any others designated to receive 241 | attribution, in any reasonable manner requested by 242 | the Licensor (including by pseudonym if 243 | designated); 244 | 245 | ii. a copyright notice; 246 | 247 | iii. a notice that refers to this Public License; 248 | 249 | iv. a notice that refers to the disclaimer of 250 | warranties; 251 | 252 | v. a URI or hyperlink to the Licensed Material to the 253 | extent reasonably practicable; 254 | 255 | b. indicate if You modified the Licensed Material and 256 | retain an indication of any previous modifications; and 257 | 258 | c. indicate the Licensed Material is licensed under this 259 | Public License, and include the text of, or the URI or 260 | hyperlink to, this Public License. 261 | 262 | 2. You may satisfy the conditions in Section 3(a)(1) in any 263 | reasonable manner based on the medium, means, and context in 264 | which You Share the Licensed Material. For example, it may be 265 | reasonable to satisfy the conditions by providing a URI or 266 | hyperlink to a resource that includes the required 267 | information. 268 | 269 | 3. If requested by the Licensor, You must remove any of the 270 | information required by Section 3(a)(1)(A) to the extent 271 | reasonably practicable. 272 | 273 | b. ShareAlike. 274 | 275 | In addition to the conditions in Section 3(a), if You Share 276 | Adapted Material You produce, the following conditions also apply. 277 | 278 | 1. The Adapter's License You apply must be a Creative Commons 279 | license with the same License Elements, this version or 280 | later, or a BY-SA Compatible License. 281 | 282 | 2. You must include the text of, or the URI or hyperlink to, the 283 | Adapter's License You apply. You may satisfy this condition 284 | in any reasonable manner based on the medium, means, and 285 | context in which You Share Adapted Material. 286 | 287 | 3. You may not offer or impose any additional or different terms 288 | or conditions on, or apply any Effective Technological 289 | Measures to, Adapted Material that restrict exercise of the 290 | rights granted under the Adapter's License You apply. 291 | 292 | 293 | Section 4 -- Sui Generis Database Rights. 294 | 295 | Where the Licensed Rights include Sui Generis Database Rights that 296 | apply to Your use of the Licensed Material: 297 | 298 | a. for the avoidance of doubt, Section 2(a)(1) grants You the right 299 | to extract, reuse, reproduce, and Share all or a substantial 300 | portion of the contents of the database; 301 | 302 | b. if You include all or a substantial portion of the database 303 | contents in a database in which You have Sui Generis Database 304 | Rights, then the database in which You have Sui Generis Database 305 | Rights (but not its individual contents) is Adapted Material, 306 | 307 | including for purposes of Section 3(b); and 308 | c. You must comply with the conditions in Section 3(a) if You Share 309 | all or a substantial portion of the contents of the database. 310 | 311 | For the avoidance of doubt, this Section 4 supplements and does not 312 | replace Your obligations under this Public License where the Licensed 313 | Rights include other Copyright and Similar Rights. 314 | 315 | 316 | Section 5 -- Disclaimer of Warranties and Limitation of Liability. 317 | 318 | a. UNLESS OTHERWISE SEPARATELY UNDERTAKEN BY THE LICENSOR, TO THE 319 | EXTENT POSSIBLE, THE LICENSOR OFFERS THE LICENSED MATERIAL AS-IS 320 | AND AS-AVAILABLE, AND MAKES NO REPRESENTATIONS OR WARRANTIES OF 321 | ANY KIND CONCERNING THE LICENSED MATERIAL, WHETHER EXPRESS, 322 | IMPLIED, STATUTORY, OR OTHER. THIS INCLUDES, WITHOUT LIMITATION, 323 | WARRANTIES OF TITLE, MERCHANTABILITY, FITNESS FOR A PARTICULAR 324 | PURPOSE, NON-INFRINGEMENT, ABSENCE OF LATENT OR OTHER DEFECTS, 325 | ACCURACY, OR THE PRESENCE OR ABSENCE OF ERRORS, WHETHER OR NOT 326 | KNOWN OR DISCOVERABLE. WHERE DISCLAIMERS OF WARRANTIES ARE NOT 327 | ALLOWED IN FULL OR IN PART, THIS DISCLAIMER MAY NOT APPLY TO YOU. 328 | 329 | b. TO THE EXTENT POSSIBLE, IN NO EVENT WILL THE LICENSOR BE LIABLE 330 | TO YOU ON ANY LEGAL THEORY (INCLUDING, WITHOUT LIMITATION, 331 | NEGLIGENCE) OR OTHERWISE FOR ANY DIRECT, SPECIAL, INDIRECT, 332 | INCIDENTAL, CONSEQUENTIAL, PUNITIVE, EXEMPLARY, OR OTHER LOSSES, 333 | COSTS, EXPENSES, OR DAMAGES ARISING OUT OF THIS PUBLIC LICENSE OR 334 | USE OF THE LICENSED MATERIAL, EVEN IF THE LICENSOR HAS BEEN 335 | ADVISED OF THE POSSIBILITY OF SUCH LOSSES, COSTS, EXPENSES, OR 336 | DAMAGES. WHERE A LIMITATION OF LIABILITY IS NOT ALLOWED IN FULL OR 337 | IN PART, THIS LIMITATION MAY NOT APPLY TO YOU. 338 | 339 | c. The disclaimer of warranties and limitation of liability provided 340 | above shall be interpreted in a manner that, to the extent 341 | possible, most closely approximates an absolute disclaimer and 342 | waiver of all liability. 343 | 344 | 345 | Section 6 -- Term and Termination. 346 | 347 | a. This Public License applies for the term of the Copyright and 348 | Similar Rights licensed here. However, if You fail to comply with 349 | this Public License, then Your rights under this Public License 350 | terminate automatically. 351 | 352 | b. Where Your right to use the Licensed Material has terminated under 353 | Section 6(a), it reinstates: 354 | 355 | 1. automatically as of the date the violation is cured, provided 356 | it is cured within 30 days of Your discovery of the 357 | violation; or 358 | 359 | 2. upon express reinstatement by the Licensor. 360 | 361 | For the avoidance of doubt, this Section 6(b) does not affect any 362 | right the Licensor may have to seek remedies for Your violations 363 | of this Public License. 364 | 365 | c. For the avoidance of doubt, the Licensor may also offer the 366 | Licensed Material under separate terms or conditions or stop 367 | distributing the Licensed Material at any time; however, doing so 368 | will not terminate this Public License. 369 | 370 | d. Sections 1, 5, 6, 7, and 8 survive termination of this Public 371 | License. 372 | 373 | 374 | Section 7 -- Other Terms and Conditions. 375 | 376 | a. The Licensor shall not be bound by any additional or different 377 | terms or conditions communicated by You unless expressly agreed. 378 | 379 | b. Any arrangements, understandings, or agreements regarding the 380 | Licensed Material not stated herein are separate from and 381 | independent of the terms and conditions of this Public License. 382 | 383 | 384 | Section 8 -- Interpretation. 385 | 386 | a. For the avoidance of doubt, this Public License does not, and 387 | shall not be interpreted to, reduce, limit, restrict, or impose 388 | conditions on any use of the Licensed Material that could lawfully 389 | be made without permission under this Public License. 390 | 391 | b. To the extent possible, if any provision of this Public License is 392 | deemed unenforceable, it shall be automatically reformed to the 393 | minimum extent necessary to make it enforceable. If the provision 394 | cannot be reformed, it shall be severed from this Public License 395 | without affecting the enforceability of the remaining terms and 396 | conditions. 397 | 398 | c. No term or condition of this Public License will be waived and no 399 | failure to comply consented to unless expressly agreed to by the 400 | Licensor. 401 | 402 | d. Nothing in this Public License constitutes or may be interpreted 403 | as a limitation upon, or waiver of, any privileges and immunities 404 | that apply to the Licensor or You, including from the legal 405 | processes of any jurisdiction or authority. 406 | 407 | 408 | ======================================================================= 409 | 410 | Creative Commons is not a party to its public 411 | licenses. Notwithstanding, Creative Commons may elect to apply one of 412 | its public licenses to material it publishes and in those instances 413 | will be considered the “Licensor.” The text of the Creative Commons 414 | public licenses is dedicated to the public domain under the CC0 Public 415 | Domain Dedication. Except for the limited purpose of indicating that 416 | material is shared under a Creative Commons public license or as 417 | otherwise permitted by the Creative Commons policies published at 418 | creativecommons.org/policies, Creative Commons does not authorize the 419 | use of the trademark "Creative Commons" or any other trademark or logo 420 | of Creative Commons without its prior written consent including, 421 | without limitation, in connection with any unauthorized modifications 422 | to any of its public licenses or any other arrangements, 423 | understandings, or agreements concerning use of licensed material. For 424 | the avoidance of doubt, this paragraph does not form part of the 425 | public licenses. 426 | 427 | Creative Commons may be contacted at creativecommons.org. 428 | -------------------------------------------------------------------------------- /Pipfile: -------------------------------------------------------------------------------- 1 | [[source]] 2 | name = "pypi" 3 | url = "https://pypi.org/simple" 4 | verify_ssl = true 5 | 6 | [dev-packages] 7 | 8 | [packages] 9 | sklearn = "*" 10 | pandas = "*" 11 | numpy = "*" 12 | seaborn = "*" 13 | requests = "*" 14 | bs4 = "*" 15 | matplotlib = "*" 16 | bokeh = "*" 17 | ipykernel = "*" 18 | folium = "*" 19 | Pillow = ">=8.2.0" 20 | 21 | [requires] 22 | python_version = "3.7" 23 | -------------------------------------------------------------------------------- /README.md: -------------------------------------------------------------------------------- 1 | [![Binder](https://mybinder.org/badge_logo.svg)](https://mybinder.org/v2/gh/koldLight/curso-python-analisis-datos/master) 2 | 3 | # Libro Python para análisis de datos 4 | 5 | Este curso tiene como objetivo enseñar Python orientado al análisis de datos en aproximadamente 24 horas. 6 | 7 | No hace falta tener conocimientos previos de Python. 8 | 9 | ## Contenido del curso 10 | 11 | * 1: Anaconda y notebooks 12 | * 2: Pandas 13 | * 3: Programación 14 | * 4: APIs 15 | * 5: Web scraping 16 | * 6: Introducción a la visualización de datos 17 | * 7: Gráficos 18 | * 8: Gráficos con seaborn 19 | * 9: Mapas 20 | * 10: Numpy 21 | * 11: Pivotación de tablas 22 | * 12: Bases de datos 23 | * 13: Producción 24 | * 14: Entornos 25 | 26 | _Nota:_ Hay gente que piensa que esta forma de ordenar el curso es _rara_. Los programadores estamos acostumbrados a empezar viendo sintaxis básica, tipos de datos, etc... para ir subiendo a librerías de más alto nivel más tarde. 27 | 28 | Aquí, lo he hecho al revés. Lo primero que vemos son tablas de datos con pandas y de forma indirecta iremos utilizando números, cadenas de texto, listas, diccionarios, ... sin haberlos dado explícitamente. ¿Por qué? Para que el principiante pueda ver avance rápidamente y comprenda para qué sirve esa _parte aburrida_ de los tipos de datos y estructuras básicas antes de ponerse con ellas. 29 | 30 | ## Ejecutar los notebooks del curso 31 | 32 | ### Opción 1: Binder 33 | 34 | La forma más fácil es utilizando Binder. Entra [aquí](https://mybinder.org/v2/gh/koldLight/curso-python-analisis-datos/master), espera a que se inicie, abre la carpeta de `notebooks` y tendrás los notebooks disponibles en un entorno funcional. De esta forma, puedes seguir el curso sin necesidad de que instales nada en tu ordenador. 35 | 36 | En cambio, si quieres ir realizando los ejercicios y guardando los resultados, te recomiendo que instales Python localmente. 37 | 38 | ### Opción 2: Instalación local 39 | 40 | Para lanzarlo desde tu máquina, tienes dos opciones: 41 | 42 | * Instalar Anaconda para Python 3 (recomendado para usuarios principiantes) 43 | * Utilizar `pipenv` (recomendado para usuarios avanzados). 44 | 45 | #### Opción 2a: Instalación local con Anaconda 46 | 47 | Instala la última versión de Anaconda para Python 3.7 para tu sistema operativo desde [aquí](https://www.anaconda.com/download). Fíjate bien que instales la de Python 3.7 (y no la de Python 2.7). 48 | 49 | Aquí tienes un tutorial paso a paso de cómo hacerlo: 50 | 51 | * [Windows](https://www.datacamp.com/community/tutorials/installing-anaconda-windows). Fíjate bien en el paso en el que debes marcar que añada anaconda al PATH. Esa casilla debe quedar marcada. 52 | * [Mac](https://www.datacamp.com/community/tutorials/installing-anaconda-mac-os-x). 53 | 54 | Una vez instalado, nuestra terminal debería reconocer los comandos `conda` (el gestor de paquetes), `jupyter` (la herramienta de notebooks) y `python`, gracias a que hemos añadido anaconda a nuestro PATH. Esto quiere decir que, cuando escribamos uno de estos comandos, nuestro sistema lo buscará en la carpeta de anaconda. 55 | 56 | Para comprobarlo, abre una consola. Esto se puede hacer: 57 | 58 | * En Windows, abriendo el menú inicio y escribiendo cmd.exe. Si necesitas ayuda, mira más opciones [aquí](https://www.lifewire.com/how-to-open-command-prompt-2618089). 59 | * En Mac, abre una terminal. Si necesitas ayuda sobre cómo abrirla, mira [aquí](https://blog.teamtreehouse.com/introduction-to-the-mac-os-x-command-line). 60 | * En ubuntu / debian, abre una terminal. Si necesitas ayuda, mira [aquí](https://www.lifewire.com/ways-to-open-a-terminal-console-window-using-ubuntu-4075024). 61 | 62 | Una vez abierto, nos debería funcionar bien los siguientes tres comandos: 63 | 64 | ``` 65 | python --version 66 | 67 | conda --version 68 | 69 | jupyter --version 70 | ``` 71 | 72 | Si nos dice que no reconoce el comando, es que no se ha añadido correctamente anaconda al PATH. Los tutoriales referenciados tienen buenas soluciones a este problema habitual. 73 | 74 | Ahora, vamos a instalar las dependencias necesarias para nuestras sesiones con `conda`. Para ello, abre una terminal en tu ordenador y lanza lo siguiente: 75 | 76 | ``` 77 | conda install -c conda-forge seaborn 78 | conda install -c conda-forge folium 79 | ``` 80 | 81 | Los comandos anteriores deberán instalar sin error las librerías. 82 | 83 | Y finalmente, para abrir los notebooks en Windows, puedes hacer, desde la consola (cmd.exe): 84 | 85 | ``` 86 | jupyter notebook --notebook-dir='C:\mi\ruta\con\notebooks\' 87 | ``` 88 | 89 | En mac o linux, con la terminal: 90 | 91 | ``` 92 | jupyter notebook --notebook-dir='/mi/ruta/con/notebooks' 93 | ``` 94 | 95 | Modificando la ruta dependiendo de dónde los hayas descargado. 96 | 97 | #### Opción 2b: Instalación local con pipenv 98 | 99 | Necesitarás: 100 | 101 | * Python 3.7 o superior 102 | * pipenv 103 | * jupyter 104 | 105 | Si no tienes `pipenv`, puedes instalarlo como comando así: 106 | 107 | ``` 108 | sudo -H pip install -U pipenv 109 | ``` 110 | 111 | Si no tienes `jupyter`, puedes instalarlo como comando así: 112 | 113 | ``` 114 | sudo -H pip install -U jupyter 115 | ``` 116 | 117 | Para instalar las dependencias, ejecuta: 118 | 119 | ``` 120 | pipenv install --dev 121 | ``` 122 | 123 | La primera vez que lo lances, creará el entorno virtual con las dependencias del proyecto. 124 | 125 | Y para crear el kernel sobre el que correrán los notebooks, lanza lo siguiente: 126 | 127 | ``` 128 | # Activate the virtual environment 129 | pipenv shell 130 | 131 | # Create the kernel 132 | python -m ipykernel install --user --name='libropython' 133 | 134 | # Exit the virtual environment shell 135 | exit 136 | ``` 137 | 138 | A partir de ahora, en `jupyter`, tendrás un nuevo kernel disponible llamado `libropython`. Tendrás que seleccionarlo para ejecutar correctamente los notebooks de este curso. 139 | 140 | Finalmente, para lanzar los notebooks: 141 | 142 | ``` 143 | pipenv run jupyter notebook notebooks 144 | ``` 145 | 146 | ### Opción 3: Docker 147 | 148 | Si prefieres utilizar un contenedor para lanzar el curso, basta con que tengas instalado `docker` en tu ordenador y lances: 149 | 150 | ``` 151 | docker-compose up --build 152 | ``` 153 | 154 | Cuando esté corriendo, saldrá un mensaje parecido a este por consola: 155 | 156 | ``` 157 | curso_1 | To access the notebook, open this file in a browser: 158 | curso_1 | file:///root/.local/share/jupyter/runtime/nbserver-1-open.html 159 | curso_1 | Or copy and paste one of these URLs: 160 | curso_1 | http://d9a5de8c039a:8888/?token=xxxxxxxx 161 | curso_1 | or http://127.0.0.1:8888/?token=xxxxxxxx 162 | ``` 163 | 164 | Copia y pega en tu navegador la última URL (la que empieza por `http://127.0.0.1:8888/?token=`) y accederás a los notebooks desplegados en tu contenedor. 165 | 166 | ## Contribuye 167 | 168 | Si ves algo incorrecto, que no se entiende bien, crees que falta alguna explicación o tienes alguna idea que compartir, puedes crear una `issue` en el repositorio. 169 | 170 | ## Licencia 171 | 172 | [![](http://i.creativecommons.org/l/by-sa/4.0/88x31.png)](http://creativecommons.org/licenses/by-sa/4.0/) 173 | 174 | Puedes utilizar libremente este material, con las siguientes condiciones: 175 | 176 | * Atribuir la autoría a este repositorio. 177 | * Si lo utilizas y haces cambios, deberás liberarlo también bajo la misma licencia. 178 | 179 | ## TODO 180 | 181 | * Revisar links rotos 182 | * Añadir ejemplo paleta cut en sns 183 | * Pasar tema 06 intro visualización a notebook (en lugar de Rmd + html) 184 | -------------------------------------------------------------------------------- /docker-compose.yml: -------------------------------------------------------------------------------- 1 | version: '3.7' 2 | 3 | services: 4 | curso: 5 | build: 6 | context: . 7 | dockerfile: Dockerfile.local 8 | volumes: 9 | - .:/curso 10 | ports: 11 | - 8888:8888 12 | command: pipenv run jupyter notebook notebooks --ip='0.0.0.0' --allow-root 13 | -------------------------------------------------------------------------------- /notebooks/01_anaconda_notebooks.ipynb: -------------------------------------------------------------------------------- 1 | { 2 | "cells": [ 3 | { 4 | "cell_type": "markdown", 5 | "metadata": {}, 6 | "source": [ 7 | "# Anaconda y _notebooks_" 8 | ] 9 | }, 10 | { 11 | "cell_type": "markdown", 12 | "metadata": { 13 | "collapsed": true 14 | }, 15 | "source": [ 16 | "## Anaconda" 17 | ] 18 | }, 19 | { 20 | "cell_type": "markdown", 21 | "metadata": {}, 22 | "source": [ 23 | "Anaconda es una distribución de Python autocontenida y aislada del resto del sistema operativo especialmente pensada para el análisis de datos y la computación científica. Incluye, además de Python, una serie de paquetes y herramientas utilizadas en análisis de datos como:\n", 24 | "\n", 25 | "* El gestor de paquetes `conda`\n", 26 | "* Jupyter _notebooks_\n", 27 | "* El IDE Spyder\n", 28 | "* Una selección de paquetes muy usados en ciencia de datos y aplicaciones científicas como `pandas`, `scikit-learn`, `scipy`, `numpy`, `matplotlib`,...\n", 29 | "\n", 30 | "Más información sobre Anaconda [aquí](https://docs.anaconda.com/anaconda/)." 31 | ] 32 | }, 33 | { 34 | "cell_type": "markdown", 35 | "metadata": {}, 36 | "source": [ 37 | "## _Notebooks_" 38 | ] 39 | }, 40 | { 41 | "cell_type": "markdown", 42 | "metadata": {}, 43 | "source": [ 44 | "Los _notebooks_ son documentos interactivos que combinan texto y código. Los usos principales son:\n", 45 | "\n", 46 | "* IDE: son una plataforma de desarrollo de código\n", 47 | "* Documentación de código\n", 48 | "* Presentación y diseminación de resultados\n", 49 | "\n", 50 | "Los _notebooks_ incorporan a Python los principios de la [_programación literaria_](https://en.wikipedia.org/wiki/Literate_programming) y [investigación reproducible](http://t-redactyl.io/blog/2016/10/a-crash-course-in-reproducible-research-in-python.html).\n", 51 | "\n", 52 | "Un _notebook_ es esencialmente una secuencia de bloques o celdas, que pueden ser de dos tipos: texto y código. En el menú superior hay un botón (con el símbolo de un teclado) que indica las combinaciones de teclas con las que se pueden crear, eliminar, editar, ejecutar, etc. los bloques.\n", 53 | "\n", 54 | "Los _notebooks_ se abren en el navegador. Nuestros _notebooks_ apuntan a un servidor que corre en local, pero es posible abrir _notebooks_ que corren en servidores remotos." 55 | ] 56 | }, 57 | { 58 | "cell_type": "markdown", 59 | "metadata": {}, 60 | "source": [ 61 | "### Bloques de texto" 62 | ] 63 | }, 64 | { 65 | "cell_type": "markdown", 66 | "metadata": {}, 67 | "source": [ 68 | "Los bloques de texto permiten crear títulos de distinto nivel; enumeraciones; texto corrido; marcas tipográficas como _cursivas_, **negritas** o `de código`, etc. Además de eso, se pueden escribir bloques de código como\n", 69 | "\n", 70 | "```\n", 71 | "for (i %in% 1:10)\n", 72 | " print(\"R rocks!)\n", 73 | "```\n", 74 | "\n", 75 | "Para saber más opciones de la sintaxis, mira [esta guía de `markdown`](https://www.markdownguide.org/basic-syntax/)" 76 | ] 77 | }, 78 | { 79 | "cell_type": "markdown", 80 | "metadata": {}, 81 | "source": [ 82 | "### Bloques de código" 83 | ] 84 | }, 85 | { 86 | "cell_type": "markdown", 87 | "metadata": {}, 88 | "source": [ 89 | "Los bloques de código contienen... código. Al ejecutarlo, se muestra el resultado de la última instrucción.\n", 90 | "\n", 91 | "El encargado de ejecutar el código es un _kernel_. Usaremos un _kernel_ de Python, pero es posible asociar a un _notebook_ _kernels_ en otros lenguajes de programación (p.e., Julia o R)." 92 | ] 93 | }, 94 | { 95 | "cell_type": "code", 96 | "execution_count": null, 97 | "metadata": {}, 98 | "outputs": [], 99 | "source": [ 100 | "# Un ejemplo de celda con código\n", 101 | "a = 4\n", 102 | "b = 3\n", 103 | "a + b" 104 | ] 105 | }, 106 | { 107 | "cell_type": "markdown", 108 | "metadata": {}, 109 | "source": [ 110 | "Cuando devolvemos una tabla en una celda, se visualiza con formato:" 111 | ] 112 | }, 113 | { 114 | "cell_type": "code", 115 | "execution_count": null, 116 | "metadata": {}, 117 | "outputs": [], 118 | "source": [ 119 | "from sklearn import datasets\n", 120 | "import pandas as pd\n", 121 | "import numpy as np\n", 122 | "\n", 123 | "iris_data = datasets.load_iris()\n", 124 | "\n", 125 | "iris = pd.DataFrame(iris_data.data,columns=iris_data.feature_names)\n", 126 | "iris['species'] = pd.Series(iris_data.target_names[iris_data.target])\n", 127 | "iris.head()" 128 | ] 129 | }, 130 | { 131 | "cell_type": "markdown", 132 | "metadata": {}, 133 | "source": [ 134 | "También podemos incluir gráficos devolviéndolos en celdas de código" 135 | ] 136 | }, 137 | { 138 | "cell_type": "code", 139 | "execution_count": null, 140 | "metadata": {}, 141 | "outputs": [], 142 | "source": [ 143 | "# Con esta instrucción, indicamos que queremos ver incrustados los gráficos dentro del notebook\n", 144 | "\n", 145 | "%matplotlib inline" 146 | ] 147 | }, 148 | { 149 | "cell_type": "code", 150 | "execution_count": null, 151 | "metadata": {}, 152 | "outputs": [], 153 | "source": [ 154 | "iris.plot.scatter(x='petal length (cm)',\n", 155 | " y='petal width (cm)')" 156 | ] 157 | }, 158 | { 159 | "cell_type": "markdown", 160 | "metadata": {}, 161 | "source": [ 162 | "## Ejercicios\n", 163 | "\n", 164 | "1. Crea un nuevo _notebook_ y añádele bloques de texto y código.\n", 165 | "2. Consulta los atajos de teclado de Jupiter (botón con la imagen de un teclado en el menú) y familiarízate (y usa) los más comunes (crear bloque antes/después, borrar bloque, cambiar el tipo de bloque, ejecutar bloque, etc.)." 166 | ] 167 | } 168 | ], 169 | "metadata": { 170 | "kernelspec": { 171 | "display_name": "libropython", 172 | "language": "python", 173 | "name": "libropython" 174 | }, 175 | "language_info": { 176 | "codemirror_mode": { 177 | "name": "ipython", 178 | "version": 3 179 | }, 180 | "file_extension": ".py", 181 | "mimetype": "text/x-python", 182 | "name": "python", 183 | "nbconvert_exporter": "python", 184 | "pygments_lexer": "ipython3", 185 | "version": "3.7.3" 186 | } 187 | }, 188 | "nbformat": 4, 189 | "nbformat_minor": 2 190 | } 191 | -------------------------------------------------------------------------------- /notebooks/04_apis.ipynb: -------------------------------------------------------------------------------- 1 | { 2 | "cells": [ 3 | { 4 | "cell_type": "markdown", 5 | "metadata": {}, 6 | "source": [ 7 | "# Introducción a las APIs\n", 8 | "\n", 9 | "Las [APIs](https://en.wikipedia.org/wiki/Application_programming_interface) (Application Programming Interface) se utilizan de manera habitual para acceder a datos, servicios o facilitar la comunicación entre programas.\n", 10 | "\n", 11 | "Son muy útiles en los siguientes casos:\n", 12 | "\n", 13 | "* Los datos cambian rápidamente. Por ejemplo, predicciones metereológicas a corto plazo, o el estado actual de la bolsa. En estos casos, no tiene sentido tener un dataset estático que regenerar continuamente.\n", 14 | "* Necesitamos una parte pequeña de un dataset mucho más grande. Por ejemplo, vamos a analizar los tweets de una determinada cuenta. Sería innecesariamente costo tener que descargarse la base de datos de Twitter completa para consultar un subconjunto muy pequeño.\n", 15 | "* Para consumir un servicio especializado. Por ejemplo, la geocodificación inversa (consiste en un servicio al que le pasas una latitud y longitud y te devuelve la dirección, ciudad, país, ... en la que se encuentra. Para hacerlo por nosotros mismos, necesitaríamos una base geolocalizada global.\n" 16 | ] 17 | }, 18 | { 19 | "cell_type": "markdown", 20 | "metadata": {}, 21 | "source": [ 22 | "![](images/api_vs_website.gif)" 23 | ] 24 | }, 25 | { 26 | "cell_type": "markdown", 27 | "metadata": {}, 28 | "source": [ 29 | "En realidad, su uso es muy parecido a la consulta de un sitio web desde un explorador. Tanto la API como el sitio web residen en un servidor web remoto (normalmente, accesible desde internet) y contestan a las peticiones que hacen los clientes. La gran diferencia reside, principalmente, en el formato de la respuesta:\n", 30 | "\n", 31 | "* Al consultar un sitio web, el resultado se devuelve para que sea interpretable por humanos. Suele estar formado por HTML que el explorador renderiza para nosotros.\n", 32 | "* Al consultar una API, el resultado se devuelve en una forma estructurada para que sea interpretable por otro programa. El formato más habitual es el [JSON](https://en.wikipedia.org/wiki/JSON), aunque existen otros.\n", 33 | "\n", 34 | "Un ejemplo de JSON:" 35 | ] 36 | }, 37 | { 38 | "cell_type": "markdown", 39 | "metadata": {}, 40 | "source": [ 41 | "![](images/json.png)" 42 | ] 43 | }, 44 | { 45 | "cell_type": "markdown", 46 | "metadata": {}, 47 | "source": [ 48 | "## Peticiones a APIs\n", 49 | "\n", 50 | "Vamos a hacer una petición a una API. Para ello, necesitamos saber:\n", 51 | "\n", 52 | "* El endpoint (url)\n", 53 | "* Si necesita parámetros, cuáles son, y dónde se colocan (en el query string o en el cuerpo de la petición)\n", 54 | "\n", 55 | "Un ejemplo de petición a una API que no necesita parámetros" 56 | ] 57 | }, 58 | { 59 | "cell_type": "code", 60 | "execution_count": null, 61 | "metadata": {}, 62 | "outputs": [], 63 | "source": [ 64 | "import requests" 65 | ] 66 | }, 67 | { 68 | "cell_type": "code", 69 | "execution_count": null, 70 | "metadata": {}, 71 | "outputs": [], 72 | "source": [ 73 | "response = requests.get('https://api.exchangeratesapi.io/latest')" 74 | ] 75 | }, 76 | { 77 | "cell_type": "code", 78 | "execution_count": null, 79 | "metadata": {}, 80 | "outputs": [], 81 | "source": [ 82 | "# Código de estado: 200 indica OK\n", 83 | "\n", 84 | "response.status_code" 85 | ] 86 | }, 87 | { 88 | "cell_type": "code", 89 | "execution_count": null, 90 | "metadata": {}, 91 | "outputs": [], 92 | "source": [ 93 | "# Cabeceras: dan información sobre el servidor, el formato de la respuesta, ...\n", 94 | "\n", 95 | "response.headers" 96 | ] 97 | }, 98 | { 99 | "cell_type": "code", 100 | "execution_count": null, 101 | "metadata": {}, 102 | "outputs": [], 103 | "source": [ 104 | "# Los datos de respuesta, en JSON\n", 105 | "\n", 106 | "response_data = response.json()\n", 107 | "response_data" 108 | ] 109 | }, 110 | { 111 | "cell_type": "markdown", 112 | "metadata": {}, 113 | "source": [ 114 | "La librería parsea el JSON de respuesta automáticamente a una lista de diccionarios (con las anidaciones correspondientes. P.e. podemos extraer campos concretos de esta forma:" 115 | ] 116 | }, 117 | { 118 | "cell_type": "code", 119 | "execution_count": null, 120 | "metadata": {}, 121 | "outputs": [], 122 | "source": [ 123 | "response_data['base']" 124 | ] 125 | }, 126 | { 127 | "cell_type": "code", 128 | "execution_count": null, 129 | "metadata": {}, 130 | "outputs": [], 131 | "source": [ 132 | "response_data['rates']['AUD']" 133 | ] 134 | }, 135 | { 136 | "cell_type": "code", 137 | "execution_count": null, 138 | "metadata": {}, 139 | "outputs": [], 140 | "source": [ 141 | "response_data['rates']['USD']" 142 | ] 143 | }, 144 | { 145 | "cell_type": "markdown", 146 | "metadata": {}, 147 | "source": [ 148 | "## Códigos de respuesta\n", 149 | "\n", 150 | "El _status code_ nos indica si ha ido bien o no la petición. Además, en caso de error, nos da información sobre la causa de este. Los más utilizados son:\n", 151 | "\n", 152 | "* 200: la petición ha ido bien\n", 153 | "* 301: el servidor está redireccionando la petición a otro\n", 154 | "* 401: error de autenticación\n", 155 | "* 400: la petición es incorrecta (p.e. porque falta algún parámetro o están mal formados)\n", 156 | "* 403: prohibido, no tienes permisos suficientes\n", 157 | "* 404: el recurso consultado no existe\n", 158 | "* 500: el servidor ha dado un error inesperado\n", 159 | "\n", 160 | "Puedes ver la lista completa [aquí](https://en.wikipedia.org/wiki/List_of_HTTP_status_codes)" 161 | ] 162 | }, 163 | { 164 | "cell_type": "markdown", 165 | "metadata": {}, 166 | "source": [ 167 | "## Verbos\n", 168 | "\n", 169 | "Las peticiones a las APIs usan verbos. En el ejemplo de antes, hemos utilizado `GET`. Además, este verbo es el que se usa por defecto a través del explorador.\n", 170 | "\n", 171 | "Los más comunes y el uso que se les suele dar son:\n", 172 | "\n", 173 | "* GET: para consulta\n", 174 | "* POST: para insertar un nuevo dato o disparar una acción\n", 175 | "* PUT: para actualizar un registro\n", 176 | "* DELETE: para eliminar un registro" 177 | ] 178 | }, 179 | { 180 | "cell_type": "markdown", 181 | "metadata": {}, 182 | "source": [ 183 | "## Parámetros\n", 184 | "\n", 185 | "Los parámetros que incluimos en la petición pueden ir de formas diversas:\n", 186 | "\n", 187 | "* Como parte de la URL. P.e. `https://api.exchangeratesapi.io/2010-04-01`\n", 188 | "* Como parte del query string. La URL y su query string se separan con el símbolo `?`, y tienen la forma `clave=valor`. P.e. `https://api.exchangeratesapi.io/latest?base=USD`. Este es el lugar habitual de los parámetros en las peticiones `GET`.\n", 189 | "* En el cuerpo de la petición. Es el lugar habitual de los parámetros en las peticiones `POST` y `PUT`.\n", 190 | "\n", 191 | "Un ejemplo de petición `POST` con parámetros en el cuerpo de la petición:" 192 | ] 193 | }, 194 | { 195 | "cell_type": "code", 196 | "execution_count": null, 197 | "metadata": {}, 198 | "outputs": [], 199 | "source": [ 200 | "response = requests.post('https://httpbin.org/post', data={'clave': 'valor'})\n", 201 | "response.json()" 202 | ] 203 | }, 204 | { 205 | "cell_type": "markdown", 206 | "metadata": {}, 207 | "source": [ 208 | "Un ejemplo similar, pero enviando los parámetros en el cuerpo de la petición __en formato JSON__:" 209 | ] 210 | }, 211 | { 212 | "cell_type": "code", 213 | "execution_count": null, 214 | "metadata": {}, 215 | "outputs": [], 216 | "source": [ 217 | "response = requests.post('https://httpbin.org/post', json={'clave': 'valor'})\n", 218 | "response.json()" 219 | ] 220 | }, 221 | { 222 | "cell_type": "markdown", 223 | "metadata": {}, 224 | "source": [ 225 | "### Ejercicio\n", 226 | "\n", 227 | "Investiga en la documentación de la librería [requests](http://www.python-requests.org/en/latest/) cómo pasar parámetros en el query string. También consulta la documentación de la API [exchangeratesapi](https://exchangeratesapi.io/).\n", 228 | "\n", 229 | "Con esta información, extrae el valor actual de la conversión de la libra esterlina `GBP` al resto de monedas.\n", 230 | "\n", 231 | "*Nota*: hazlo sin poner manualmente el query string en la URL" 232 | ] 233 | }, 234 | { 235 | "cell_type": "code", 236 | "execution_count": null, 237 | "metadata": {}, 238 | "outputs": [], 239 | "source": [] 240 | }, 241 | { 242 | "cell_type": "markdown", 243 | "metadata": {}, 244 | "source": [ 245 | "### Ejercicio\n", 246 | "\n", 247 | "También sobre la API de `exchangeratesapi`, consulta el histórico disponible del valor entre dólares americanos y libras entre el 15 de agosto y 15 de septiembre de 2018" 248 | ] 249 | }, 250 | { 251 | "cell_type": "code", 252 | "execution_count": null, 253 | "metadata": {}, 254 | "outputs": [], 255 | "source": [] 256 | }, 257 | { 258 | "cell_type": "markdown", 259 | "metadata": {}, 260 | "source": [ 261 | "### Ejercicio\n", 262 | "\n", 263 | "Consulta la documentación de estas dos APIs:\n", 264 | "\n", 265 | "* [Nominatim - reverse geocoding](http://wiki.openstreetmap.org/wiki/Nominatim#Reverse_Geocoding)\n", 266 | "* [UK Police - crimes at location](https://data.police.uk/docs/method/crimes-at-location)\n", 267 | "\n", 268 | "Primero, consulta a la API de Nominatim para conocer cuál es la dirección asociada a estas coordenadas:\n", 269 | "\n", 270 | "* Latitud: 51.4965946\n", 271 | "* Longitud: -0.1436476\n", 272 | "\n", 273 | "El resultado debe estar en formato JSON." 274 | ] 275 | }, 276 | { 277 | "cell_type": "code", 278 | "execution_count": null, 279 | "metadata": {}, 280 | "outputs": [], 281 | "source": [] 282 | }, 283 | { 284 | "cell_type": "markdown", 285 | "metadata": {}, 286 | "source": [ 287 | "Luego, consulta a la API de la policía de UK los crímenes que se cometieron en esa localización en julio de 2018" 288 | ] 289 | }, 290 | { 291 | "cell_type": "code", 292 | "execution_count": null, 293 | "metadata": {}, 294 | "outputs": [], 295 | "source": [] 296 | }, 297 | { 298 | "cell_type": "markdown", 299 | "metadata": {}, 300 | "source": [ 301 | "## Ejercicio swapi\n", 302 | "\n", 303 | "Haz una petición a la API de [swapi](https://swapi.co/documentation) con una búsqueda de todos los personajes que tengan el apellido `skywalker`. Examina la respuesta e imprime los nombres resultantes utilizando una `list comprehension` (no utilices bucles)." 304 | ] 305 | }, 306 | { 307 | "cell_type": "code", 308 | "execution_count": null, 309 | "metadata": {}, 310 | "outputs": [], 311 | "source": [] 312 | }, 313 | { 314 | "cell_type": "markdown", 315 | "metadata": {}, 316 | "source": [ 317 | "## Ejercicio libre\n", 318 | "\n", 319 | "Revisa [este listado](https://github.com/toddmotto/public-apis) de APIs públicas. Elige alguna que te llame la atención, consulta su documentación y extrae información que sea de tu interés." 320 | ] 321 | }, 322 | { 323 | "cell_type": "code", 324 | "execution_count": null, 325 | "metadata": {}, 326 | "outputs": [], 327 | "source": [] 328 | }, 329 | { 330 | "cell_type": "markdown", 331 | "metadata": {}, 332 | "source": [ 333 | "## Referencia\n", 334 | "\n", 335 | "* Documentación [requests](http://www.python-requests.org/en/latest/)\n", 336 | "* Documentación [API citybik](https://api.citybik.es/v2/)\n", 337 | "* Documentación [folium](http://python-visualization.github.io/folium/quickstart.html)" 338 | ] 339 | }, 340 | { 341 | "cell_type": "code", 342 | "execution_count": null, 343 | "metadata": {}, 344 | "outputs": [], 345 | "source": [] 346 | } 347 | ], 348 | "metadata": { 349 | "kernelspec": { 350 | "display_name": "libropython", 351 | "language": "python", 352 | "name": "libropython" 353 | }, 354 | "language_info": { 355 | "codemirror_mode": { 356 | "name": "ipython", 357 | "version": 3 358 | }, 359 | "file_extension": ".py", 360 | "mimetype": "text/x-python", 361 | "name": "python", 362 | "nbconvert_exporter": "python", 363 | "pygments_lexer": "ipython3", 364 | "version": "3.7.6" 365 | } 366 | }, 367 | "nbformat": 4, 368 | "nbformat_minor": 2 369 | } 370 | -------------------------------------------------------------------------------- /notebooks/05_web_scraping.ipynb: -------------------------------------------------------------------------------- 1 | { 2 | "cells": [ 3 | { 4 | "cell_type": "markdown", 5 | "metadata": {}, 6 | "source": [ 7 | "# Web scraping\n", 8 | "\n", 9 | "Cuando necesitamos extraer información publicada en internet, lo ideal es consultar una API, porque:\n", 10 | "\n", 11 | "* Las respuestas contienen información estructurada\n", 12 | "* En general, el propio servicio nos da documentación sobre cómo hacer peticiones y qué tipo de información podemos solicitar\n", 13 | "\n", 14 | "Pero muchas veces nos encontramos con información en páginas web (en formato [HTML](https://es.wikipedia.org/wiki/HTML)) que nos gustaría obtener, pero sin API disponible.\n", 15 | "\n", 16 | "Estas páginas `HTML` tienen cierta estructura, aunque con ciertos contras:\n", 17 | "\n", 18 | "* Es más compleja, puede tener muchos niveles de anidamiento\n", 19 | "* Es inestable. Están diseñadas para que se vean bien desde el explorador, no para guardar una estructura de consulta. De un día para otro, puede verse alterada por la incorporación de nuevos elementos visuales u otros motivos.\n", 20 | "* Puede ser modificada por código cliente (javascript) en diferentes momentos: al cargar la página, al interaccionar con algún elemento, ..." 21 | ] 22 | }, 23 | { 24 | "cell_type": "markdown", 25 | "metadata": {}, 26 | "source": [ 27 | "### Ejercicio\n", 28 | "\n", 29 | "Desde tu explorador, consulta el código fuente de una página de tu interés. Por ejemplo, para hacerlo en chrome:\n", 30 | "\n", 31 | "* Accede a la página, p.e. [esta](https://es.wikipedia.org/wiki/HTML).\n", 32 | "* Haz click derecho y pulsa `View page source`. Otra opción es pulsar `Inspect`, que además abrirá las herramientas de desarrollador de Chrome, muy útiles para navegar por la estructura de la página." 33 | ] 34 | }, 35 | { 36 | "cell_type": "markdown", 37 | "metadata": {}, 38 | "source": [ 39 | "## Scraping de elementos html\n", 40 | "\n", 41 | "La librería que vamos a utilizar es [Beautiful Soup](https://pypi.org/project/beautifulsoup4/). Nos permite buscar elementos y navegar por la estructura del html fácilmente.\n", 42 | "\n", 43 | "Vemos dos ejemplos, uno sobre milanuncios y otro sobre spotahome, por si nos _banean_.\n", 44 | "\n", 45 | "### milanuncios\n", 46 | "\n", 47 | "Imaginemos que queremos comparar precios de un determinado modelo de motocicleta de segunda mano. P.e. con [esta búsqueda](https://www.milanuncios.com/motos-de-carretera/duke-390.htm) en milanuncios.\n", 48 | "\n", 49 | "La mayor parte de las webs con contenido interesante (que hacen negocio gracias a su contenido) intentan protegerlas para evitar que les hagan scraping. Hay varias formas de simular que nuestro script es humano en lugar de un bot, algunas más básicas y otras más complejas. Por ahora, vamos a sobrescribir nuestro _user agent_. Es una cabecera que va en las peticiones diciendo quiénes somos (p.e. qué tipo de explorador usamos). Por defecto, la librería `requests` que vamos a usar, avisa que somos un bot. Vamos a sobrescribir esta cabecera para _disimular_ un poco. Podemos copiar uno popular de (aquí)[https://developers.whatismybrowser.com/useragents/explore/software_type_specific/web-browser/]." 50 | ] 51 | }, 52 | { 53 | "cell_type": "code", 54 | "execution_count": null, 55 | "metadata": {}, 56 | "outputs": [], 57 | "source": [ 58 | "import requests\n", 59 | "from bs4 import BeautifulSoup" 60 | ] 61 | }, 62 | { 63 | "cell_type": "code", 64 | "execution_count": null, 65 | "metadata": {}, 66 | "outputs": [], 67 | "source": [ 68 | "headers = {\n", 69 | " 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36'\n", 70 | "}" 71 | ] 72 | }, 73 | { 74 | "cell_type": "markdown", 75 | "metadata": {}, 76 | "source": [ 77 | "Ahora, nos descargamos el html con `requests`." 78 | ] 79 | }, 80 | { 81 | "cell_type": "code", 82 | "execution_count": null, 83 | "metadata": {}, 84 | "outputs": [], 85 | "source": [ 86 | "page = requests.get('https://www.milanuncios.com/motos-de-carretera/duke-390.htm', headers=headers)\n", 87 | "page" 88 | ] 89 | }, 90 | { 91 | "cell_type": "markdown", 92 | "metadata": {}, 93 | "source": [ 94 | "Podemos ver el contenido examinando la propiedad `content`." 95 | ] 96 | }, 97 | { 98 | "cell_type": "code", 99 | "execution_count": null, 100 | "metadata": {}, 101 | "outputs": [], 102 | "source": [ 103 | "page.content" 104 | ] 105 | }, 106 | { 107 | "cell_type": "markdown", 108 | "metadata": {}, 109 | "source": [ 110 | "Este contenido es solo texto, no tiene estructura. Aún no podemos hacer búsquedas ni navegar por él.\n", 111 | "\n", 112 | "Para hacerlo, creamos una instancia de `Beautiful Soup` y lo parseamos" 113 | ] 114 | }, 115 | { 116 | "cell_type": "code", 117 | "execution_count": null, 118 | "metadata": {}, 119 | "outputs": [], 120 | "source": [ 121 | "soup = BeautifulSoup(page.content, 'html.parser')" 122 | ] 123 | }, 124 | { 125 | "cell_type": "markdown", 126 | "metadata": {}, 127 | "source": [ 128 | "#### SOS: ¡me han baneado!\n", 129 | "\n", 130 | "Si estamos haciendo esto en clase, es muy probable que a la mayoría, nos detecten como bots y nos baneen. Esto pasa porque somos 30 o 40 personas, haciendo la misma petición desde la misma IP y con el mismo user agent.\n", 131 | "\n", 132 | "Puedes usar el html offline que hay en `dat` para seguir con el ejercicio. Descomenta el siguiente código y sigue adelante" 133 | ] 134 | }, 135 | { 136 | "cell_type": "code", 137 | "execution_count": null, 138 | "metadata": {}, 139 | "outputs": [], 140 | "source": [ 141 | "# Descomenta esto si te han baneado\n", 142 | "# with open('dat/milanuncios.html') as f:\n", 143 | "# soup = BeautifulSoup(f, 'html.parser')" 144 | ] 145 | }, 146 | { 147 | "cell_type": "markdown", 148 | "metadata": {}, 149 | "source": [ 150 | "Sobre esto, podemos hacer búsquedas con `find` y `find_all` (o `select_one` y `select` si prefieres utilizar [selectores css](https://en.wikipedia.org/wiki/Cascading_Style_Sheets#Selector)). Sobre nuestro ejemplo, vamos a buscar todos los precios. Examinando el código fuente, vemos que son etiquetas `div` con clase `aditem-price`." 151 | ] 152 | }, 153 | { 154 | "cell_type": "code", 155 | "execution_count": null, 156 | "metadata": {}, 157 | "outputs": [], 158 | "source": [ 159 | "div_precios = soup.find_all('div', class_='aditem-price')\n", 160 | "div_precios" 161 | ] 162 | }, 163 | { 164 | "cell_type": "markdown", 165 | "metadata": {}, 166 | "source": [ 167 | "`find_all` devuelve una lista de elementos. Sobre ellos, podemos hacer:\n", 168 | "\n", 169 | "`children` para sacar el listado de todos los hijos." 170 | ] 171 | }, 172 | { 173 | "cell_type": "code", 174 | "execution_count": null, 175 | "metadata": {}, 176 | "outputs": [], 177 | "source": [ 178 | "list(div_precios[0].children)" 179 | ] 180 | }, 181 | { 182 | "cell_type": "markdown", 183 | "metadata": {}, 184 | "source": [ 185 | "`get_text()` para sacar el texto de todos los hijos" 186 | ] 187 | }, 188 | { 189 | "cell_type": "code", 190 | "execution_count": null, 191 | "metadata": {}, 192 | "outputs": [], 193 | "source": [ 194 | "div_precios[0].get_text()" 195 | ] 196 | }, 197 | { 198 | "cell_type": "markdown", 199 | "metadata": {}, 200 | "source": [ 201 | "Por tanto, para sacar el listado de todos los precios podemos hacer:" 202 | ] 203 | }, 204 | { 205 | "cell_type": "code", 206 | "execution_count": null, 207 | "metadata": {}, 208 | "outputs": [], 209 | "source": [ 210 | "[list(div_precio.children)[0] for div_precio in div_precios]" 211 | ] 212 | }, 213 | { 214 | "cell_type": "markdown", 215 | "metadata": {}, 216 | "source": [ 217 | "Tienes más funciones útiles con pequeños ejemplos [aquí](http://akul.me/blog/2016/beautifulsoup-cheatsheet/)" 218 | ] 219 | }, 220 | { 221 | "cell_type": "markdown", 222 | "metadata": {}, 223 | "source": [ 224 | "### Ejercicio\n", 225 | "\n", 226 | "Crea un dataframe de pandas en el que cada fila sea un anuncio y tenga como columnas información que consideres relevante: precio, kilómetros, año, cilindrada, texto del anuncio, ..." 227 | ] 228 | }, 229 | { 230 | "cell_type": "code", 231 | "execution_count": null, 232 | "metadata": {}, 233 | "outputs": [], 234 | "source": [] 235 | }, 236 | { 237 | "cell_type": "markdown", 238 | "metadata": {}, 239 | "source": [ 240 | "### Ejercicio\n", 241 | "\n", 242 | "Modifica el código anterior para que, además de bajarse la página actual, navegue por el resto de páginas e incorpore también esos anuncios a tu dataframe." 243 | ] 244 | }, 245 | { 246 | "cell_type": "code", 247 | "execution_count": null, 248 | "metadata": {}, 249 | "outputs": [], 250 | "source": [] 251 | }, 252 | { 253 | "cell_type": "markdown", 254 | "metadata": {}, 255 | "source": [ 256 | "## Scraping de tablas\n", 257 | "\n", 258 | "A menudo, la información que nos interesa descargar está en tablas y nuestro objetivo es importarlas en tablas de Pandas. Esta conversión suele exigir la manipulación del texto, números y fechas contenidas en la tabla original, lo que nos obligará a repasar cómo realizar esas operaciones y aplicarlas a filas y columnas de las tablas.\n", 259 | "\n", 260 | "La estructura que suelen tener la tablas en `html` es:\n", 261 | "\n", 262 | "```\n", 263 | "\n", 264 | " \n", 265 | " \n", 266 | " \n", 267 | " \n", 268 | " \n", 269 | " \n", 270 | " \n", 271 | " \n", 272 | " \n", 273 | " \n", 274 | " \n", 275 | " \n", 276 | " \n", 277 | " \n", 278 | " \n", 279 | " \n", 280 | "
Columna AColumna B
A1B1
A2B2
\n", 281 | "```" 282 | ] 283 | }, 284 | { 285 | "cell_type": "markdown", 286 | "metadata": {}, 287 | "source": [ 288 | "Necesitaremos los siguientes módulos además de `requests` y `BeautifulSoup` importados anteriormente:" 289 | ] 290 | }, 291 | { 292 | "cell_type": "code", 293 | "execution_count": null, 294 | "metadata": {}, 295 | "outputs": [], 296 | "source": [ 297 | "import pandas as pd\n", 298 | "import re" 299 | ] 300 | }, 301 | { 302 | "cell_type": "markdown", 303 | "metadata": {}, 304 | "source": [ 305 | "Primero, hacemos una petición para descargar la página de interés (que contiene las cotizaciones de las acciones del IBEX 35 en tiempo _casi_ real)." 306 | ] 307 | }, 308 | { 309 | "cell_type": "code", 310 | "execution_count": null, 311 | "metadata": {}, 312 | "outputs": [], 313 | "source": [ 314 | "base_url = \"https://www.eleconomista.es/indice/IBEX-35\"\n", 315 | "res = requests.get(base_url)\n", 316 | "contenido = res.content" 317 | ] 318 | }, 319 | { 320 | "cell_type": "markdown", 321 | "metadata": {}, 322 | "source": [ 323 | "La siguiente línea procesa el HTML de la página que hemos descargado:" 324 | ] 325 | }, 326 | { 327 | "cell_type": "code", 328 | "execution_count": null, 329 | "metadata": {}, 330 | "outputs": [], 331 | "source": [ 332 | "soup = BeautifulSoup(contenido, \"html.parser\")" 333 | ] 334 | }, 335 | { 336 | "cell_type": "markdown", 337 | "metadata": {}, 338 | "source": [ 339 | "Una vez procesado el HTML, es posible buscar elementos dentro de él. En particular, podemos buscar los elementos de tipo `table`, es decir, tablas." 340 | ] 341 | }, 342 | { 343 | "cell_type": "code", 344 | "execution_count": null, 345 | "metadata": {}, 346 | "outputs": [], 347 | "source": [ 348 | "tablas = soup.find_all('table')" 349 | ] 350 | }, 351 | { 352 | "cell_type": "markdown", 353 | "metadata": {}, 354 | "source": [ 355 | "El objeto `tablas` contiene todas las tablas presentes en la página. Hay que tener cuidado con dichas tablas porque muchas páginas utilizan elementos de tipo `table` para estructurar el contenido. Por eso, en algunas páginas, aunque parezca haber una única tabla, puede haber otras con una información no interesante que toca descartar." 356 | ] 357 | }, 358 | { 359 | "cell_type": "code", 360 | "execution_count": null, 361 | "metadata": {}, 362 | "outputs": [], 363 | "source": [ 364 | "len(tablas)" 365 | ] 366 | }, 367 | { 368 | "cell_type": "markdown", 369 | "metadata": {}, 370 | "source": [ 371 | "Podemos extraer las filas de todas estas tablas" 372 | ] 373 | }, 374 | { 375 | "cell_type": "code", 376 | "execution_count": null, 377 | "metadata": {}, 378 | "outputs": [], 379 | "source": [ 380 | "lineas = [x for tabla in tablas for x in tabla.find_all('tr')]" 381 | ] 382 | }, 383 | { 384 | "cell_type": "markdown", 385 | "metadata": {}, 386 | "source": [ 387 | "para luego extraer los contenidos de cada fila individualmente haciendo" 388 | ] 389 | }, 390 | { 391 | "cell_type": "code", 392 | "execution_count": null, 393 | "metadata": {}, 394 | "outputs": [], 395 | "source": [ 396 | "datos = [[x.text for x in linea.find_all('td')] for linea in lineas]" 397 | ] 398 | }, 399 | { 400 | "cell_type": "markdown", 401 | "metadata": {}, 402 | "source": [ 403 | "Podemos inspeccionar parte del objeto resultante:" 404 | ] 405 | }, 406 | { 407 | "cell_type": "code", 408 | "execution_count": null, 409 | "metadata": {}, 410 | "outputs": [], 411 | "source": [ 412 | "datos[0:3]" 413 | ] 414 | }, 415 | { 416 | "cell_type": "markdown", 417 | "metadata": {}, 418 | "source": [ 419 | "Vemos que hay filas que contienen la información de interés junto con otras que contienen cabeceras y otra información irrelevante. En general, la situación puede ser más complicada y se hace necesario estudiar el objeto `tablas` para seleccionar la de interés.\n", 420 | "\n", 421 | "En nuestro caso, podemos filtrar las líneas menos relevantes así:" 422 | ] 423 | }, 424 | { 425 | "cell_type": "code", 426 | "execution_count": null, 427 | "metadata": {}, 428 | "outputs": [], 429 | "source": [ 430 | "datos = [x for x in datos if len(x) > 0]" 431 | ] 432 | }, 433 | { 434 | "cell_type": "markdown", 435 | "metadata": {}, 436 | "source": [ 437 | "Finalmente, podemos crear una tabla de Pandas:" 438 | ] 439 | }, 440 | { 441 | "cell_type": "code", 442 | "execution_count": null, 443 | "metadata": {}, 444 | "outputs": [], 445 | "source": [ 446 | "datos = pd.DataFrame(datos)\n", 447 | "datos" 448 | ] 449 | }, 450 | { 451 | "cell_type": "markdown", 452 | "metadata": {}, 453 | "source": [ 454 | "#### Ejercicio\n", 455 | "\n", 456 | "Usa los elementos `th` de la primera fila de las tablas para extraer nombres para las columnas de la tabla. " 457 | ] 458 | }, 459 | { 460 | "cell_type": "code", 461 | "execution_count": null, 462 | "metadata": {}, 463 | "outputs": [], 464 | "source": [] 465 | }, 466 | { 467 | "cell_type": "markdown", 468 | "metadata": {}, 469 | "source": [ 470 | "#### Ejercicio\n", 471 | "\n", 472 | "Elimina las columnas irrelevantes y cambia los nombres de las columnas por otros breves y sin caracteres extraños o que dificulten el posproceso." 473 | ] 474 | }, 475 | { 476 | "cell_type": "code", 477 | "execution_count": null, 478 | "metadata": {}, 479 | "outputs": [], 480 | "source": [] 481 | }, 482 | { 483 | "cell_type": "markdown", 484 | "metadata": {}, 485 | "source": [ 486 | "#### Ejercicio\n", 487 | "\n", 488 | "Cambia el formato de las columnas adecuadamente: convierte a numéricas, etc., las columnas que lo requieran." 489 | ] 490 | }, 491 | { 492 | "cell_type": "code", 493 | "execution_count": null, 494 | "metadata": {}, 495 | "outputs": [], 496 | "source": [] 497 | }, 498 | { 499 | "cell_type": "markdown", 500 | "metadata": {}, 501 | "source": [ 502 | "## Riesgos del scraping\n", 503 | "\n", 504 | "El scraping es una técnica potente pero tiene varios contras:\n", 505 | "\n", 506 | "* Implica mayor tiempo de desarrollo y mayor esfuerzo en la limpieza de datos (en comparación con otras fuentes como APIs, BDs, ...)\n", 507 | "* Si hay que scrapear gran cantidad de páginas, es lento\n", 508 | "* Los servidores objetivo de nuestro scraping pueden tener técnicas para evitarlo. Por ejemplo, bloquear la IP temporalmente o introducir delays en las respuestas si hacemos muchas peticiones en poco tiempo. Esto pasa especialmente en las grandes webs recelosas de sus datos (p.e. linkedin, amazon, ...).\n", 509 | "* El código de scraping escrito hoy puede no funcionar mañana, si la web destino cambia nombres, etiquetas o estructura. Si se sube a producción para lanzarlo periódicamente, hay que ser conscientes de que en algún momento fallará, y establecer mecanismos de alerta\n", 510 | "\n", 511 | "## Javascript\n", 512 | "\n", 513 | "Es posible que te encuentres con algún caso en el que no puedas descargar tal cual el html y parsearlo, principalmente por dos motivos:\n", 514 | "\n", 515 | "* La estructura de la página se genera parcial o totalmente en cliente\n", 516 | "* Debemos interactuar con algún elemento para mostrar la información que queremos (p.e. completar un campo de búsuqeda, hacer click en algún botón, ...)\n", 517 | "\n", 518 | "En estos casos, hay que ejecutar en un navegador local el código javascript de la página destino. Para esta tarea, puedes utilizar [Selenium]().\n", 519 | "\n", 520 | "[Aquí](https://medium.freecodecamp.org/better-web-scraping-in-python-with-selenium-beautiful-soup-and-pandas-d6390592e251) un post con un ejemplo de uso." 521 | ] 522 | }, 523 | { 524 | "cell_type": "code", 525 | "execution_count": null, 526 | "metadata": {}, 527 | "outputs": [], 528 | "source": [] 529 | } 530 | ], 531 | "metadata": { 532 | "kernelspec": { 533 | "display_name": "libropython", 534 | "language": "python", 535 | "name": "libropython" 536 | }, 537 | "language_info": { 538 | "codemirror_mode": { 539 | "name": "ipython", 540 | "version": 3 541 | }, 542 | "file_extension": ".py", 543 | "mimetype": "text/x-python", 544 | "name": "python", 545 | "nbconvert_exporter": "python", 546 | "pygments_lexer": "ipython3", 547 | "version": "3.7.3" 548 | } 549 | }, 550 | "nbformat": 4, 551 | "nbformat_minor": 2 552 | } 553 | -------------------------------------------------------------------------------- /notebooks/06_intro_visualizacion.Rmd: -------------------------------------------------------------------------------- 1 | --- 2 | title: "Visualización de datos" 3 | author: "Luz Frias" 4 | output: 5 | revealjs::revealjs_presentation: 6 | pandoc_args: [ "--slide-level", "1" ] 7 | transition: none 8 | background_transition: none 9 | reveal_options: 10 | controls: false 11 | width: 1200 12 | --- 13 | 14 | ## Introducción visualización de datos 15 | 16 | * Es parte del análisis exploratorio de los datos 17 | * De un vistazo, podemos entender: 18 | 19 | * Distribuciones 20 | * Relaciones entre atributos 21 | * ... 22 | 23 | ## Evitar la distorsión de los datos 24 | 25 | ![Ejemplo](https://d1avok0lzls2w.cloudfront.net/img_uploads/pie3Djpexploded.png) 26 | ![Ejemplo](https://d1avok0lzls2w.cloudfront.net/img_uploads/military-npr.png) 27 | 28 | ## El contexto de los gráficos 29 | 30 | * El gráfico debe servir para apoyar una serie de conclusiones / explicaciones a lo observado 31 | 32 | ![Ejemplo](https://d1avok0lzls2w.cloudfront.net/img_uploads/facebook_2012.jpg) 33 | 34 | ## Un mismo gráfico para exponer varios niveles de detalle 35 | 36 | * Combinando formas, colores y posición podemos describir varias dimensiones de la información de un solo vistazo 37 | 38 | ![Ejemplo](https://d1avok0lzls2w.cloudfront.net/img_uploads/space-launches.png) 39 | 40 | * La dimensión tiempo en los gráficos: [ejemplo](https://www.visualcapitalist.com/animation-the-worlds-10-largest-economies-by-gdp-1960-today/) 41 | 42 | ## Los colores 43 | 44 | * Es importante escoger una escala que refleje la naturaleza de los datos: 45 | 46 | * Secuencial: refleja progresivamente las diferencias entre poco y mucho. Por ejemplo, los ingresos mensuales medios por barrio. 47 | * Divergente: tiene naturaleza secuencial, pero interesa destacar los extremos y el punto medio. Por ejemplo, el mapa de intención de voto demócrata vs republicano en EEUU. 48 | * Cualitativa: refleja categóricas sin orden. Por ejemplo, hombres vs mujeres. 49 | 50 | * Es muy complicado elegir bien una escala. Usa herramientas que ya las proporcionan, como [colorbrewer](http://colorbrewer2.org/) 51 | 52 | ## La escalas 53 | 54 | * Naturaleza de la comparación: normal, logarítmica, ... [Ejemplo](https://www.researchtrends.com/wp-content/uploads/2012/09/KL2-log-scale.jpg) 55 | * El cero: ¿comparaciones absolutas o relativas? [Ejemplo](http://www.datapine.com/blog/wp-content/uploads/2014/06/Same-Data-Different-Y-Axis-Data-Visualization-Designed-to-Mislead.png) 56 | * Varias escalas: deben usarse bien para evitar confusiones. [Ejemplo](https://www.elsevier.com/__data/assets/image/0015/35043/Figure-2.jpg) 57 | 58 | ## La importancia del tipo de gráfico 59 | 60 | * [Chart suggestion](https://apandre.files.wordpress.com/2011/02/chartchooserincolor.jpg) 61 | 62 | ## Ejemplos buenos gráficos: ¿por qué? 63 | 64 | * [Servicio militar EEUU](http://www.npr.org/2011/07/03/137536111/by-the-numbers-todays-military) 65 | * [Cartograma elecciones UK](http://www.viewsoftheworld.net/wp-content/uploads/2015/05/ukelection2015_mapviews.jpg) 66 | * [Interactivo rutinas](https://podio.com/site/creative-routines) 67 | * [Animación envejecimiento población](https://www.visualcapitalist.com/us-population-pyramid-1980-2050/) 68 | * [Tendencias twitter](http://echeloninsights.com/wp-content/uploads/2014/12/theyearinnews20141.png) 69 | * [Pictoline](https://twitter.com/pictoline/status/796541916397576194?lang=en) 70 | * [Elecciones catalanas](http://www.huffingtonpost.es/2015/09/28/elecciones-catalanas-twitter_n_8206438.html) 71 | * [Redes sociales y grafos](https://twitter.com/graphext/status/748119214431543296) 72 | 73 | ## Ejemplos malos gráficos: ¿qué cambiarías? 74 | 75 | * [Categorías empresas](https://www.datanalytics.com/2011/11/08/bump-charts-para-comparar-graficamente-proporciones-entre-periodos/) 76 | * [IEH](https://www.datanalytics.com/2015/04/23/valores-diferentes/) 77 | * [Ejes](https://www.datanalytics.com/2013/09/05/donde-deberian-comenzar-los-ejes/) 78 | * [Pomelos](https://www.datanalytics.com/2013/08/27/el-pomelazo-del-csic/) 79 | * [Proporciones](https://www.datanalytics.com/2013/03/19/mapas-realmente-necesarios/) 80 | * [El engaño](https://www.datanalytics.com/2011/01/31/un-grafico-enganabobos/) 81 | * [Blog dedicado a los gráficos sin sentido](http://viz.wtf/) 82 | 83 | -------------------------------------------------------------------------------- /notebooks/07_graficos.ipynb: -------------------------------------------------------------------------------- 1 | { 2 | "cells": [ 3 | { 4 | "cell_type": "markdown", 5 | "metadata": {}, 6 | "source": [ 7 | "# Graficos" 8 | ] 9 | }, 10 | { 11 | "cell_type": "markdown", 12 | "metadata": { 13 | "collapsed": true 14 | }, 15 | "source": [ 16 | "## Librerías\n", 17 | "\n", 18 | "Existen varias librerías en Python para crear gráficos. Algunas de las más populares y sus utilidades principales son:\n", 19 | "\n", 20 | "* `matplotlib`: gráficos estáticos y básicos, interfaz de bajo nivel.\n", 21 | "* `pandas plot`: construido sobre matplotlib, simplifica la construcción de gráficos basados en DataFrames.\n", 22 | "* `seaborn`: construido sobre matplotlib, proporciona una interfaz de más alto nivel.\n", 23 | "* `bokeh`: gráficos html, añadiendo cierto nivel de interacción.\n", 24 | "* `dash`: para dashboards, con selectores y otros elementos de interacción. Es el *shiny de Python*." 25 | ] 26 | }, 27 | { 28 | "cell_type": "markdown", 29 | "metadata": {}, 30 | "source": [ 31 | "## Pandas plot\n", 32 | "\n", 33 | "Si ya tenemos los datos en un `DataFrame` y no necesitamos mucha personalización, nos vale el [`plot`](https://pandas.pydata.org/pandas-docs/stable/generated/pandas.DataFrame.plot.html) que trae `pandas`." 34 | ] 35 | }, 36 | { 37 | "cell_type": "code", 38 | "execution_count": null, 39 | "metadata": {}, 40 | "outputs": [], 41 | "source": [ 42 | "%matplotlib inline" 43 | ] 44 | }, 45 | { 46 | "cell_type": "markdown", 47 | "metadata": {}, 48 | "source": [ 49 | "Un `plot` sobre el DataFrame nos pinta todas las columnas." 50 | ] 51 | }, 52 | { 53 | "cell_type": "code", 54 | "execution_count": null, 55 | "metadata": {}, 56 | "outputs": [], 57 | "source": [ 58 | "import pandas as pd\n", 59 | "\n", 60 | "venta = pd.read_csv('dat/venta-madrid-distritos.csv', index_col=False)\n", 61 | "out = venta.plot(subplots=True)" 62 | ] 63 | }, 64 | { 65 | "cell_type": "markdown", 66 | "metadata": {}, 67 | "source": [ 68 | "En la documentación de [`plot`](https://pandas.pydata.org/pandas-docs/stable/generated/pandas.DataFrame.plot.html) se indica cómo modificar los parámetros fundamentales del gráfico, como a continuación:" 69 | ] 70 | }, 71 | { 72 | "cell_type": "code", 73 | "execution_count": null, 74 | "metadata": {}, 75 | "outputs": [], 76 | "source": [ 77 | "out = venta.plot(subplots=True, figsize = (15, 10))" 78 | ] 79 | }, 80 | { 81 | "cell_type": "markdown", 82 | "metadata": {}, 83 | "source": [ 84 | "Podemos pintar un gráfico especificando el tipo, el eje x y el eje y. Por ejemplo, para ver la evolución del precio a comienzo de cada año en un distrito concreto." 85 | ] 86 | }, 87 | { 88 | "cell_type": "code", 89 | "execution_count": null, 90 | "metadata": {}, 91 | "outputs": [], 92 | "source": [ 93 | "out = venta[(venta.distrito == 'San Blas') & (venta.quarter == 1)].plot(kind='scatter', x='ano', y='precio')" 94 | ] 95 | }, 96 | { 97 | "cell_type": "markdown", 98 | "metadata": {}, 99 | "source": [ 100 | "Un ejemplo pintando un histograma sobre una de las columnas:" 101 | ] 102 | }, 103 | { 104 | "cell_type": "code", 105 | "execution_count": null, 106 | "metadata": {}, 107 | "outputs": [], 108 | "source": [ 109 | "out = venta[(venta.ano == 2012) & (venta.quarter == 1)].precio.plot(kind='hist')" 110 | ] 111 | }, 112 | { 113 | "cell_type": "markdown", 114 | "metadata": {}, 115 | "source": [ 116 | "Para los histogramas y boxplots tenemos una interfaz más avanzada que podemos usar:\n", 117 | "\n", 118 | "* [`boxplot`](https://pandas.pydata.org/pandas-docs/stable/generated/pandas.DataFrame.boxplot.html)\n", 119 | "* [`hist`](https://pandas.pydata.org/pandas-docs/stable/generated/pandas.DataFrame.hist.html)" 120 | ] 121 | }, 122 | { 123 | "cell_type": "markdown", 124 | "metadata": {}, 125 | "source": [ 126 | "Por ejemplo, para pintar los boxplots de precios por distrito." 127 | ] 128 | }, 129 | { 130 | "cell_type": "code", 131 | "execution_count": null, 132 | "metadata": {}, 133 | "outputs": [], 134 | "source": [ 135 | "out = venta.boxplot('precio', by='distrito', figsize=(15, 5), rot=90)" 136 | ] 137 | }, 138 | { 139 | "cell_type": "markdown", 140 | "metadata": {}, 141 | "source": [ 142 | "#### Ejercicio\n", 143 | "\n", 144 | "Pinta un histograma para todos los precios de comienzo de cada año (primer cuatrimestre) con franjas más estrechas (es decir, más `bins`)" 145 | ] 146 | }, 147 | { 148 | "cell_type": "code", 149 | "execution_count": null, 150 | "metadata": {}, 151 | "outputs": [], 152 | "source": [] 153 | }, 154 | { 155 | "cell_type": "markdown", 156 | "metadata": {}, 157 | "source": [ 158 | "## Seaborn\n", 159 | "\n", 160 | "Un ejemplo de uso de seaborn, para pintar la evolución de precios a comienzo de cada año, usando una línea por distrito:" 161 | ] 162 | }, 163 | { 164 | "cell_type": "code", 165 | "execution_count": null, 166 | "metadata": {}, 167 | "outputs": [], 168 | "source": [ 169 | "import seaborn as sns\n", 170 | "\n", 171 | "out = sns.lineplot(data=venta[venta.quarter == 1],\n", 172 | " x='ano', y='precio', hue='distrito',\n", 173 | " legend=False)" 174 | ] 175 | }, 176 | { 177 | "cell_type": "markdown", 178 | "metadata": {}, 179 | "source": [ 180 | "#### Ejercicio\n", 181 | "\n", 182 | "Pinta con seaborn un gráfico de barras que muestre el precio de cada distrito en el año y cuatrimestre más reciente. Píntalo de forma que los distritos estén ordenados de mayor a menor precio." 183 | ] 184 | }, 185 | { 186 | "cell_type": "code", 187 | "execution_count": null, 188 | "metadata": {}, 189 | "outputs": [], 190 | "source": [] 191 | }, 192 | { 193 | "cell_type": "markdown", 194 | "metadata": {}, 195 | "source": [ 196 | "Puedes consultar la documentación completa de seaborn [aquí](https://seaborn.pydata.org/). O un resumen de las funciones más importantes [aquí](https://s3.amazonaws.com/assets.datacamp.com/blog_assets/Python_Seaborn_Cheat_Sheet.pdf)" 197 | ] 198 | }, 199 | { 200 | "cell_type": "markdown", 201 | "metadata": {}, 202 | "source": [ 203 | "## Bokeh\n", 204 | "\n", 205 | "Podemos pintar el gráfico anterior con `Bokeh`:" 206 | ] 207 | }, 208 | { 209 | "cell_type": "code", 210 | "execution_count": null, 211 | "metadata": {}, 212 | "outputs": [], 213 | "source": [ 214 | "from bokeh.io import output_notebook\n", 215 | "\n", 216 | "output_notebook()" 217 | ] 218 | }, 219 | { 220 | "cell_type": "code", 221 | "execution_count": null, 222 | "metadata": {}, 223 | "outputs": [], 224 | "source": [ 225 | "from bokeh.plotting import figure, show\n", 226 | "from bokeh.models import HoverTool\n", 227 | "from bokeh.palettes import viridis\n", 228 | "\n", 229 | "data = venta[venta.quarter == 1].copy()\n", 230 | "\n", 231 | "# La paleta de colores\n", 232 | "distritos = data.distrito.unique()\n", 233 | "color_palette = viridis(len(distritos))\n", 234 | "color_map = dict(zip(distritos, color_palette))\n", 235 | "\n", 236 | "# Configuración del gráfico: títulos y etiquetas\n", 237 | "p = figure(title = 'Evolución precio de venta')\n", 238 | "p.xaxis.axis_label = 'Año'\n", 239 | "p.yaxis.axis_label = '€ metro cuadrado'\n", 240 | "\n", 241 | "# Por cada distrito, una línea y su hover (popup al pasar el ratón por encima)\n", 242 | "for distrito, group in data.groupby('distrito'):\n", 243 | " line = p.line(group.ano, group.precio, color=color_map[distrito], name=distrito)\n", 244 | " hover = HoverTool(tooltips=[('distrito', distrito),\n", 245 | " ('año', '@x'),\n", 246 | " ('precio', '@y{int}')],\n", 247 | " renderers=[line], toggleable=False)\n", 248 | " p.add_tools(hover)\n", 249 | "\n", 250 | "show(p)" 251 | ] 252 | }, 253 | { 254 | "cell_type": "markdown", 255 | "metadata": {}, 256 | "source": [ 257 | "## Dash\n", 258 | "\n", 259 | "Dash es un framework para construir aplicaciones web de análisis de datos. Usa React con Plotly para el frontend, y Flask para el backend. Nos permite crear fácilmente dashboards complejos únicamente usando Python, sin necesidad de Javascript.\n", 260 | "\n", 261 | "Necesita un servidor que corra la aplicación.\n", 262 | "\n", 263 | "Para ver ejemplos y más información, consulta la [web de Dash](https://plot.ly/products/dash/)" 264 | ] 265 | }, 266 | { 267 | "cell_type": "code", 268 | "execution_count": null, 269 | "metadata": {}, 270 | "outputs": [], 271 | "source": [] 272 | } 273 | ], 274 | "metadata": { 275 | "kernelspec": { 276 | "display_name": "libropython", 277 | "language": "python", 278 | "name": "libropython" 279 | }, 280 | "language_info": { 281 | "codemirror_mode": { 282 | "name": "ipython", 283 | "version": 3 284 | }, 285 | "file_extension": ".py", 286 | "mimetype": "text/x-python", 287 | "name": "python", 288 | "nbconvert_exporter": "python", 289 | "pygments_lexer": "ipython3", 290 | "version": "3.7.3" 291 | } 292 | }, 293 | "nbformat": 4, 294 | "nbformat_minor": 2 295 | } 296 | -------------------------------------------------------------------------------- /notebooks/08_graficos_seaborn.ipynb: -------------------------------------------------------------------------------- 1 | { 2 | "cells": [ 3 | { 4 | "cell_type": "markdown", 5 | "metadata": {}, 6 | "source": [ 7 | "# Gráficos con seaborn\n", 8 | "\n", 9 | "Vamos a profundizar más en el uso de esta librería. Para la mayoría de los ejemplos, usaremos el dataset de diamantes.\n", 10 | "\n", 11 | "Puedes consultar la documentación completa de seaborn [aquí](https://seaborn.pydata.org/). O un resumen de las funciones más importantes [aquí](https://s3.amazonaws.com/assets.datacamp.com/blog_assets/Python_Seaborn_Cheat_Sheet.pdf)" 12 | ] 13 | }, 14 | { 15 | "cell_type": "code", 16 | "execution_count": null, 17 | "metadata": {}, 18 | "outputs": [], 19 | "source": [ 20 | "import seaborn as sns\n", 21 | "import matplotlib.pyplot as plt" 22 | ] 23 | }, 24 | { 25 | "cell_type": "code", 26 | "execution_count": null, 27 | "metadata": {}, 28 | "outputs": [], 29 | "source": [ 30 | "# Esto solo me sirve para que se vean algo más grandes los gráficos\n", 31 | "# en el notebook\n", 32 | "\n", 33 | "from matplotlib import rcParams\n", 34 | "\n", 35 | "rcParams['figure.figsize'] = 14, 10\n", 36 | "sns.set_context('talk')" 37 | ] 38 | }, 39 | { 40 | "cell_type": "code", 41 | "execution_count": null, 42 | "metadata": {}, 43 | "outputs": [], 44 | "source": [ 45 | "diamonds = sns.load_dataset('diamonds')" 46 | ] 47 | }, 48 | { 49 | "cell_type": "markdown", 50 | "metadata": {}, 51 | "source": [ 52 | "Para que los gráficos sean más rápidos en cargar, y algunos ejemplos más claros, cojo solamente un subconjunto de los datos (2000 filas de unas 54000)" 53 | ] 54 | }, 55 | { 56 | "cell_type": "code", 57 | "execution_count": null, 58 | "metadata": {}, 59 | "outputs": [], 60 | "source": [ 61 | "dat = diamonds.sample(2000, random_state=1234).copy()\n", 62 | "dat.head()" 63 | ] 64 | }, 65 | { 66 | "cell_type": "markdown", 67 | "metadata": {}, 68 | "source": [ 69 | "## Scatter plot\n", 70 | "\n", 71 | "Para pintar una característica frente a otra en un [scatterplot](https://seaborn.pydata.org/generated/seaborn.scatterplot.html), p.e. precio vs quilates:" 72 | ] 73 | }, 74 | { 75 | "cell_type": "code", 76 | "execution_count": null, 77 | "metadata": {}, 78 | "outputs": [], 79 | "source": [ 80 | "out = sns.scatterplot(x='price', y='carat', data=dat)" 81 | ] 82 | }, 83 | { 84 | "cell_type": "markdown", 85 | "metadata": {}, 86 | "source": [ 87 | "#### Ejercicio\n", 88 | "\n", 89 | "Cambia el tamaño de los puntos según la propiedad `x` (longitud en mm) sobre el scatterplot básico." 90 | ] 91 | }, 92 | { 93 | "cell_type": "code", 94 | "execution_count": null, 95 | "metadata": {}, 96 | "outputs": [], 97 | "source": [] 98 | }, 99 | { 100 | "cell_type": "markdown", 101 | "metadata": {}, 102 | "source": [ 103 | "#### Ejercicio\n", 104 | "\n", 105 | "Cambia la forma de los puntos según la propiedad `clarity` sobre el scatterplot básico." 106 | ] 107 | }, 108 | { 109 | "cell_type": "code", 110 | "execution_count": null, 111 | "metadata": {}, 112 | "outputs": [], 113 | "source": [] 114 | }, 115 | { 116 | "cell_type": "markdown", 117 | "metadata": {}, 118 | "source": [ 119 | "#### Ejercicio\n", 120 | "\n", 121 | "Colorea los puntos según la propiedad `cut` sobre el scatterplot básico que acabamos de mostrar.\n", 122 | "\n", 123 | "Una vez hecho, ordena en la leyenda los cortes de forma ascendente por calidad, es decir, 'Fair', 'Good', 'Very Good', 'Premium', 'Ideal'." 124 | ] 125 | }, 126 | { 127 | "cell_type": "code", 128 | "execution_count": null, 129 | "metadata": {}, 130 | "outputs": [], 131 | "source": [] 132 | }, 133 | { 134 | "cell_type": "markdown", 135 | "metadata": {}, 136 | "source": [ 137 | "#### Ejercicio\n", 138 | "\n", 139 | "Prueba a colorear los puntos ahora por una propiedad numérica. ¿Cuál es la diferencia que observas en la paleta de colores con respecto a `cut`, que es categórica?" 140 | ] 141 | }, 142 | { 143 | "cell_type": "code", 144 | "execution_count": null, 145 | "metadata": {}, 146 | "outputs": [], 147 | "source": [] 148 | }, 149 | { 150 | "cell_type": "markdown", 151 | "metadata": {}, 152 | "source": [ 153 | "Si queremos utilizar un scatter plot con una variable categórica, podemos usar efecto `jitter` sobre los puntos que irían unos encima de otros (es decir, aplicar un poco de desplazamiento para ver nubes de puntos). Para hacer esto, tenemos `stripplot` y `swarmplot`. Como ejercicio, descubre la diferencia entre ambos métodos.\n", 154 | "\n", 155 | "Un ejemplo:" 156 | ] 157 | }, 158 | { 159 | "cell_type": "code", 160 | "execution_count": null, 161 | "metadata": {}, 162 | "outputs": [], 163 | "source": [ 164 | "out = sns.stripplot(x='cut', y='price', data=dat)" 165 | ] 166 | }, 167 | { 168 | "cell_type": "markdown", 169 | "metadata": {}, 170 | "source": [ 171 | "#### Ejercicio\n", 172 | "\n", 173 | "Pinta este mismo gráfico con `scatterplot` y `swarmplot`. Explica las diferencias." 174 | ] 175 | }, 176 | { 177 | "cell_type": "code", 178 | "execution_count": null, 179 | "metadata": {}, 180 | "outputs": [], 181 | "source": [] 182 | }, 183 | { 184 | "cell_type": "markdown", 185 | "metadata": {}, 186 | "source": [ 187 | "#### Ejercicio\n", 188 | "\n", 189 | "* Pinta el mismo gráfico con _violines_ en lugar de con puntos\n", 190 | "* Ídem con boxplots\n", 191 | "\n", 192 | "¿Cuál te parece más intuitivo?" 193 | ] 194 | }, 195 | { 196 | "cell_type": "code", 197 | "execution_count": null, 198 | "metadata": {}, 199 | "outputs": [], 200 | "source": [] 201 | }, 202 | { 203 | "cell_type": "markdown", 204 | "metadata": {}, 205 | "source": [ 206 | "## Bar plot\n", 207 | "\n", 208 | "Otro estilo de gráfico muy habitual son los de barras. Ten en cuenta que:\n", 209 | "\n", 210 | "* Si representamos una variable en el eje x, y el eje y es el conteo, estamos hablando de [`countplot`](https://seaborn.pydata.org/generated/seaborn.countplot.html)\n", 211 | "* Si representamos una variable en el eje x y otra en el eje y, hablamos de [`barplot`](https://seaborn.pydata.org/generated/seaborn.barplot.html)" 212 | ] 213 | }, 214 | { 215 | "cell_type": "code", 216 | "execution_count": null, 217 | "metadata": {}, 218 | "outputs": [], 219 | "source": [ 220 | "# Un countplot\n", 221 | "out = sns.countplot(x='clarity', hue='cut', data=dat)" 222 | ] 223 | }, 224 | { 225 | "cell_type": "markdown", 226 | "metadata": {}, 227 | "source": [ 228 | "## Histograma\n", 229 | "\n", 230 | "Para representar la distribución de una variable podemos usar [`distplot`](https://seaborn.pydata.org/generated/seaborn.distplot.html), pasando como argumento la columna de interés." 231 | ] 232 | }, 233 | { 234 | "cell_type": "code", 235 | "execution_count": null, 236 | "metadata": {}, 237 | "outputs": [], 238 | "source": [ 239 | "out = sns.distplot(dat.price)" 240 | ] 241 | }, 242 | { 243 | "cell_type": "markdown", 244 | "metadata": {}, 245 | "source": [ 246 | "#### Ejercicio\n", 247 | "\n", 248 | "* Lee los datos del economista (`dat/economist-countries-data.csv`), con indicadores de desarrollo y corrupción por países\n", 249 | " * HDI: Human Development Index (1: más desarrollado)\n", 250 | " * CPI: Corruption Perception Index (10: menos corrupto)\n", 251 | "* Crea un gráfico que:\n", 252 | " * Cada país sea un punto\n", 253 | " * El eje x indique CPI, el y HDI\n", 254 | " * El color del punto indique la región\n", 255 | " * Su tamaño sea proporcional al ranking HDI\n", 256 | "* ¿Qué conclusiones extraes del gráfico?" 257 | ] 258 | }, 259 | { 260 | "cell_type": "code", 261 | "execution_count": null, 262 | "metadata": {}, 263 | "outputs": [], 264 | "source": [] 265 | }, 266 | { 267 | "cell_type": "markdown", 268 | "metadata": {}, 269 | "source": [ 270 | "## Escalas\n", 271 | "\n", 272 | "Podemos cambiar la escala de los ejes:" 273 | ] 274 | }, 275 | { 276 | "cell_type": "code", 277 | "execution_count": null, 278 | "metadata": {}, 279 | "outputs": [], 280 | "source": [ 281 | "out = sns.scatterplot(x='price', y='carat', data=dat)\n", 282 | "\n", 283 | "# Esta instrucción es de matplotlib, y altera el gráfico actual\n", 284 | "plt.xscale('log')" 285 | ] 286 | }, 287 | { 288 | "cell_type": "markdown", 289 | "metadata": {}, 290 | "source": [ 291 | "#### Ejercicio\n", 292 | "\n", 293 | "Investiga cómo cambiar las paletas de colores por alguna de nuestra elección de [colorbrewer](http://colorbrewer2.org), y pinta dos scatterplots de precio vs quilates. Cada uno usará como color una propiedad diferente, que consideres de naturaleza secuencial y cualitativa respectivamente." 294 | ] 295 | }, 296 | { 297 | "cell_type": "code", 298 | "execution_count": null, 299 | "metadata": {}, 300 | "outputs": [], 301 | "source": [] 302 | }, 303 | { 304 | "cell_type": "markdown", 305 | "metadata": {}, 306 | "source": [ 307 | "#### Ejercicio\n", 308 | "\n", 309 | "Investiga cómo cambiar las etiquetas de los ejes y el título global del gráfico. Hazlo sobre uno de tus gráficos." 310 | ] 311 | }, 312 | { 313 | "cell_type": "code", 314 | "execution_count": null, 315 | "metadata": {}, 316 | "outputs": [], 317 | "source": [] 318 | }, 319 | { 320 | "cell_type": "markdown", 321 | "metadata": {}, 322 | "source": [ 323 | "## Facets\n", 324 | "\n", 325 | "Los facets son composiciones de gráficos para comparar datos sobre distintas propiedades. [Aquí](https://seaborn.pydata.org/tutorial/axis_grids.html) tienes una buena referencia sobre cómo generarlos desde seaborn." 326 | ] 327 | }, 328 | { 329 | "cell_type": "markdown", 330 | "metadata": {}, 331 | "source": [ 332 | "Podemos comprar todas nuestras variables numéricas rápidamente con `pairplot`. Opcionalmente, agrupando (coloreando) por alguna categórica:" 333 | ] 334 | }, 335 | { 336 | "cell_type": "code", 337 | "execution_count": null, 338 | "metadata": {}, 339 | "outputs": [], 340 | "source": [ 341 | "out = sns.pairplot(dat, hue='cut')" 342 | ] 343 | }, 344 | { 345 | "cell_type": "markdown", 346 | "metadata": {}, 347 | "source": [ 348 | "#### Ejercicio\n", 349 | "\n", 350 | "Investiga el uso de [`FacetGrid`](https://seaborn.pydata.org/tutorial/axis_grids.html) y pinta estos gráficos:\n", 351 | "\n", 352 | "* Los histogramas de `carat` por cada valor de `cut`.\n", 353 | "* Un scatterplot de `carat` en x frente a `price` en y, por cada valor de `cut`.\n", 354 | "* Un scatterplot de `carat` en x frente a `price` en y, por cada valor de `cut` y `clarity`." 355 | ] 356 | }, 357 | { 358 | "cell_type": "code", 359 | "execution_count": null, 360 | "metadata": {}, 361 | "outputs": [], 362 | "source": [] 363 | }, 364 | { 365 | "cell_type": "markdown", 366 | "metadata": {}, 367 | "source": [ 368 | "## Ejercicio exploración avistamientos de OVNIs\n", 369 | "\n", 370 | "Vamos a explorar un conjunto de datos sobre avistamientos de OVNIs, disponible en este repositorio en `dat/ufos.csv`. \n", 371 | "\n", 372 | "Lee los datos y límpialos. Luego, haz un análisis gráfico de los datos contestando a las siguientes preguntas:\n", 373 | "\n", 374 | "* ¿Cuáles son las formas de OVNI avistadas más frecuentes (y cuál es esa frecuencia)? Con forma me refiero a: luz, óvalo, triángulo, ...\n", 375 | "* ¿Hay meses del año en los que es más probable que se produzca un avistamiento? ¿Hay alguna forma que se vea claramente más frecuentemente en algún momento del año?\n", 376 | "* ¿Qué países aparecen en el dataset? ¿Cuál tiene mayor número de avistamientos?\n", 377 | "* ¿Cómo se distribuye la duración de los avistamientos?\n", 378 | "* ¿Cómo se distribuye el tiempo pasado entre el momento del avistamiento (`datetime`) y la fecha de publicación (`date_posted`)?\n", 379 | "* Opcional: crea una nube de palabras sobre los comentarios, para ver qué palabras son las más comunes. Puedes usar el paquete [`WordCloud`](https://github.com/amueller/word_cloud) para ello.\n", 380 | "* Piensa otras preguntas, intenta ver posibles interacciones entre variables, y pinta los gráficos correspondientes" 381 | ] 382 | }, 383 | { 384 | "cell_type": "code", 385 | "execution_count": null, 386 | "metadata": {}, 387 | "outputs": [], 388 | "source": [] 389 | } 390 | ], 391 | "metadata": { 392 | "kernelspec": { 393 | "display_name": "libropython", 394 | "language": "python", 395 | "name": "libropython" 396 | }, 397 | "language_info": { 398 | "codemirror_mode": { 399 | "name": "ipython", 400 | "version": 3 401 | }, 402 | "file_extension": ".py", 403 | "mimetype": "text/x-python", 404 | "name": "python", 405 | "nbconvert_exporter": "python", 406 | "pygments_lexer": "ipython3", 407 | "version": "3.7.6" 408 | } 409 | }, 410 | "nbformat": 4, 411 | "nbformat_minor": 2 412 | } 413 | -------------------------------------------------------------------------------- /notebooks/09_graficos_mapas.ipynb: -------------------------------------------------------------------------------- 1 | { 2 | "cells": [ 3 | { 4 | "cell_type": "markdown", 5 | "metadata": {}, 6 | "source": [ 7 | "# Gráficos geoespaciales: mapas\n", 8 | "\n", 9 | "Habitualmente necesitamos pintar datos que tienen una referencia geoespacial, por ejemplo:\n", 10 | "\n", 11 | "* Puntos en mapas\n", 12 | "* Rutas\n", 13 | "* Estados, provincias, países u otras divisiones administrativas de territorios\n", 14 | "\n", 15 | "Para hacerlo, podemos utilizar la librería `folium`, que permite utilizar [`leaflet`](https://leafletjs.com/) dentro de python.\n", 16 | "\n", 17 | "Puedes consultar la documentación de folium [aquí](https://python-visualization.github.io/folium/)." 18 | ] 19 | }, 20 | { 21 | "cell_type": "code", 22 | "execution_count": null, 23 | "metadata": {}, 24 | "outputs": [], 25 | "source": [ 26 | "import folium\n", 27 | "import pandas as pd" 28 | ] 29 | }, 30 | { 31 | "cell_type": "markdown", 32 | "metadata": {}, 33 | "source": [ 34 | "Si te falla el `import folium` es que no tienes la librería instalada. Para hacerlo, corre desde tu terminal:\n", 35 | "\n", 36 | "```\n", 37 | "# si usas conda (gestor de paquetes de Anaconda)\n", 38 | "conda install -c conda-forge folium\n", 39 | "\n", 40 | "# si usas pip\n", 41 | "pip install folium\n", 42 | "```\n", 43 | "\n", 44 | "Una vez lo instalas, tendrás que reiniciar el kernel de jupyter antes de volver a probar. Puedes hacerlo desde este notebook en el menú Kernel / Restart." 45 | ] 46 | }, 47 | { 48 | "cell_type": "markdown", 49 | "metadata": {}, 50 | "source": [ 51 | "## Un primer mapa\n", 52 | "\n", 53 | "Para pintar un mapa, llamamos a folium con las opciones que queramos. Por ejemplo, vamos a pintar un mapa de la zona de República Argentina, Madrid" 54 | ] 55 | }, 56 | { 57 | "cell_type": "code", 58 | "execution_count": null, 59 | "metadata": { 60 | "scrolled": true 61 | }, 62 | "outputs": [], 63 | "source": [ 64 | "rep_argentina = [40.4438, -3.6857]\n", 65 | "folium.Map(location=rep_argentina, zoom_start=15)" 66 | ] 67 | }, 68 | { 69 | "cell_type": "markdown", 70 | "metadata": {}, 71 | "source": [ 72 | "Las imágenes de las calles, el mapa base, se denominan `tiles`. Podemos personalizarlo con el parámetro `tiles`. Uno que suele quedar bastante bien para pintar datos encima es `cartodbpositron`:" 73 | ] 74 | }, 75 | { 76 | "cell_type": "code", 77 | "execution_count": null, 78 | "metadata": { 79 | "scrolled": true 80 | }, 81 | "outputs": [], 82 | "source": [ 83 | "folium.Map(location=rep_argentina, zoom_start=15, tiles='cartodbpositron')" 84 | ] 85 | }, 86 | { 87 | "cell_type": "markdown", 88 | "metadata": {}, 89 | "source": [ 90 | "## Marcadores\n", 91 | "\n", 92 | "Para añadir una localización, añadimos uno o varios marcadores al mapa. Sobre ellos, podemos personalizar:\n", 93 | "\n", 94 | "* Localización\n", 95 | "* Textos en tooltip o popup\n", 96 | "* Estilo (forma, color, ...)\n", 97 | "\n", 98 | "Mira más opciones en la [documentación](https://python-visualization.github.io/folium/modules.html#folium.map.Marker)." 99 | ] 100 | }, 101 | { 102 | "cell_type": "code", 103 | "execution_count": null, 104 | "metadata": {}, 105 | "outputs": [], 106 | "source": [ 107 | "rep_argentina = [40.446, -3.68]\n", 108 | "m = folium.Map(location=rep_argentina, zoom_start=15)\n", 109 | "folium.Marker([40.4438, -3.6857], tooltip='EAE Joaquín Costa').add_to(m)\n", 110 | "folium.Marker([40.4485,-3.6796], tooltip='EAE Príncipe de Vergada').add_to(m)\n", 111 | "m" 112 | ] 113 | }, 114 | { 115 | "cell_type": "markdown", 116 | "metadata": {}, 117 | "source": [ 118 | "Vamos a añadir una serie de localizaciones a nuestro mapa. En `dat/` tenemos disponibles las localizaciones de los apartamentos de AirBnB en Madrid, descargados de [Inside AirBnB](http://insideairbnb.com/)." 119 | ] 120 | }, 121 | { 122 | "cell_type": "code", 123 | "execution_count": null, 124 | "metadata": {}, 125 | "outputs": [], 126 | "source": [ 127 | "listings = pd.read_csv('dat/listings.csv')\n", 128 | "listings.head()" 129 | ] 130 | }, 131 | { 132 | "cell_type": "code", 133 | "execution_count": null, 134 | "metadata": {}, 135 | "outputs": [], 136 | "source": [ 137 | "# Mi mapa base sobre Madrid\n", 138 | "map_madrid = folium.Map(location=[40.42, -3.7], zoom_start=13)\n", 139 | "\n", 140 | "# Cojo 100 apartamentos (la muestra completa es muy grande)\n", 141 | "listings_sample = listings.sample(500, random_state=1234)\n", 142 | "\n", 143 | "# Los añado a mi mapa\n", 144 | "# Voy a usar CircleMarker en lugar de Marker, porque me deja personalizar el color más fácilmente\n", 145 | "listings_sample.apply(\n", 146 | " lambda row: folium.CircleMarker([row.latitude, row.longitude], tooltip=row.room_type, radius=3).add_to(map_madrid),\n", 147 | " axis=1\n", 148 | ")\n", 149 | "map_madrid" 150 | ] 151 | }, 152 | { 153 | "cell_type": "markdown", 154 | "metadata": {}, 155 | "source": [ 156 | "#### Ejercicio\n", 157 | "\n", 158 | "Personaliza el mapa anterior para que el color del marcador diferencie por `room_type`." 159 | ] 160 | }, 161 | { 162 | "cell_type": "code", 163 | "execution_count": null, 164 | "metadata": {}, 165 | "outputs": [], 166 | "source": [] 167 | }, 168 | { 169 | "cell_type": "markdown", 170 | "metadata": {}, 171 | "source": [ 172 | "## Heatmaps\n", 173 | "\n", 174 | "Son útiles para representar densidades.\n", 175 | "\n", 176 | "Vamos a utilizarlo para ver cuál es la concentración de apartamentos por zona.\n", 177 | "\n", 178 | "Si consultamos la [documentación](https://python-visualization.github.io/folium/plugins.html#folium.plugins.HeatMap), vemos que necesita un parámetro `data` que debe ser una lista de `[lat, lng]`, pero también acepta un dataframe de pandas con 2 columnas." 179 | ] 180 | }, 181 | { 182 | "cell_type": "code", 183 | "execution_count": null, 184 | "metadata": {}, 185 | "outputs": [], 186 | "source": [ 187 | "from folium.plugins import HeatMap" 188 | ] 189 | }, 190 | { 191 | "cell_type": "code", 192 | "execution_count": null, 193 | "metadata": {}, 194 | "outputs": [], 195 | "source": [ 196 | "m = folium.Map(location=[40.42, -3.7], zoom_start=11, tiles='cartodbpositron')\n", 197 | "heatmap = HeatMap(data=listings[[\"latitude\", \"longitude\"]], radius=15).add_to(m)\n", 198 | "m" 199 | ] 200 | }, 201 | { 202 | "cell_type": "markdown", 203 | "metadata": {}, 204 | "source": [ 205 | "## Mapa de coropletas\n", 206 | "\n", 207 | "Son mapas sobre los que coloreamos las regiones que contiene en base a la propiedad que queremos explicar.\n", 208 | "\n", 209 | "Vamos a pintar un mapa que represente el precio medio de los alojamientos de cada barrio." 210 | ] 211 | }, 212 | { 213 | "cell_type": "code", 214 | "execution_count": null, 215 | "metadata": {}, 216 | "outputs": [], 217 | "source": [ 218 | "num_per_area = listings.groupby('neighbourhood').id.count().reset_index()\n", 219 | "num_per_area = num_per_area.rename(columns={\"id\": \"num\"})\n", 220 | "num_per_area.head()" 221 | ] 222 | }, 223 | { 224 | "cell_type": "code", 225 | "execution_count": null, 226 | "metadata": {}, 227 | "outputs": [], 228 | "source": [ 229 | "# Incializamos el mapa\n", 230 | "m = folium.Map(location=[40.42, -3.7], zoom_start=11, tiles='cartodbpositron')\n", 231 | "\n", 232 | "# Add the color for the chloropleth:\n", 233 | "folium.Choropleth(\n", 234 | " geo_data='dat/neighbourhoods.geojson',\n", 235 | " data=num_per_area,\n", 236 | " columns=['neighbourhood', 'num'],\n", 237 | " key_on='feature.properties.neighbourhood',\n", 238 | " fill_color='YlGn'\n", 239 | ").add_to(m)\n", 240 | "\n", 241 | "m" 242 | ] 243 | }, 244 | { 245 | "cell_type": "markdown", 246 | "metadata": {}, 247 | "source": [ 248 | "#### Ejercicio\n", 249 | "\n", 250 | "Modifica el mapa anterior para definir los límites de cada color y ver mejor el detalle. P.e. para que de 0 a 10 se vea en una intensidad, de 10 a 100 en otra, de 100 a 1000, ... (es decir, una escala logarítmica)" 251 | ] 252 | }, 253 | { 254 | "cell_type": "code", 255 | "execution_count": null, 256 | "metadata": {}, 257 | "outputs": [], 258 | "source": [] 259 | }, 260 | { 261 | "cell_type": "markdown", 262 | "metadata": {}, 263 | "source": [ 264 | "## Ejercicios con la API de citybik\n", 265 | "\n", 266 | "Consulta la documentación de la API de [citybik](http://api.citybik.es/v2/). Quizás quieras repasar también el notebook dedicado a las APIs." 267 | ] 268 | }, 269 | { 270 | "cell_type": "markdown", 271 | "metadata": {}, 272 | "source": [ 273 | "### Ejercicio: get_networks\n", 274 | "\n", 275 | "Crea una función `get_networks()` que devuelva todas las redes de bicis disponibles" 276 | ] 277 | }, 278 | { 279 | "cell_type": "code", 280 | "execution_count": null, 281 | "metadata": {}, 282 | "outputs": [], 283 | "source": [] 284 | }, 285 | { 286 | "cell_type": "markdown", 287 | "metadata": {}, 288 | "source": [ 289 | "### Ejercicio: plot_networks\n", 290 | "\n", 291 | "Crea una función `plot_networks()` que pinte en un mapa todas las redes de bicis disponibles en la localización en la que se encuentran. Además, añade un tooltip con el nombre de la red" 292 | ] 293 | }, 294 | { 295 | "cell_type": "code", 296 | "execution_count": null, 297 | "metadata": {}, 298 | "outputs": [], 299 | "source": [] 300 | }, 301 | { 302 | "cell_type": "markdown", 303 | "metadata": {}, 304 | "source": [ 305 | "### Ejercicio: get_stations\n", 306 | "\n", 307 | "Crea una función `get_stations(network_id)` que:\n", 308 | "\n", 309 | "* Acepte un argumento `network_id` con el identificador de la red. P.e. podría tomar el valor `bicimad`, `bicing`, `velib`, ...\n", 310 | "* Devuelva una lista con las estaciones (y su información) de la red especificada\n", 311 | "\n", 312 | "_Nota_: puedes concatenar cadenas de texto con `+`. P.e.: `'hola' + ' mundo'`" 313 | ] 314 | }, 315 | { 316 | "cell_type": "code", 317 | "execution_count": null, 318 | "metadata": {}, 319 | "outputs": [], 320 | "source": [] 321 | }, 322 | { 323 | "cell_type": "markdown", 324 | "metadata": {}, 325 | "source": [ 326 | "### Ejercicio: get_stations con control de error\n", 327 | "\n", 328 | "Modifica la función `get_stations(network_id)` para que, si introduces una red que no existe, devuelva una lista vacía en lugar de un error no controlado." 329 | ] 330 | }, 331 | { 332 | "cell_type": "code", 333 | "execution_count": null, 334 | "metadata": {}, 335 | "outputs": [], 336 | "source": [] 337 | }, 338 | { 339 | "cell_type": "markdown", 340 | "metadata": {}, 341 | "source": [ 342 | "### Ejercicio: get_stations con parámetros opcionales\n", 343 | "\n", 344 | "Modifica la función `get_stations` para que, además del parámetro actual, tenga un parámetro adicional opcional:\n", 345 | "\n", 346 | "* `min_free_bikes`: número mínimo de bicis disponibles para coger\n", 347 | "\n", 348 | "La función deberá devolver únicamente las estaciones que cumplan la condición pasada en el parámetro. El valor por defecto de este nuevo parámetro es 0." 349 | ] 350 | }, 351 | { 352 | "cell_type": "code", 353 | "execution_count": null, 354 | "metadata": {}, 355 | "outputs": [], 356 | "source": [] 357 | }, 358 | { 359 | "cell_type": "markdown", 360 | "metadata": {}, 361 | "source": [ 362 | "### Ejercicio\n", 363 | "\n", 364 | "Pinta en un mapa las estaciones de BiciMAD.\n", 365 | "\n", 366 | "Además:\n", 367 | "\n", 368 | "* Pinta el marcador en rojo si hay menos de un 20% de las bicis disponibles en este momento, en naranja si está entre el 20% - 50%, y verde si hay más\n", 369 | "* Pinta un tooltip con el nombre de la estación" 370 | ] 371 | }, 372 | { 373 | "cell_type": "code", 374 | "execution_count": null, 375 | "metadata": {}, 376 | "outputs": [], 377 | "source": [] 378 | } 379 | ], 380 | "metadata": { 381 | "kernelspec": { 382 | "display_name": "libropython", 383 | "language": "python", 384 | "name": "libropython" 385 | }, 386 | "language_info": { 387 | "codemirror_mode": { 388 | "name": "ipython", 389 | "version": 3 390 | }, 391 | "file_extension": ".py", 392 | "mimetype": "text/x-python", 393 | "name": "python", 394 | "nbconvert_exporter": "python", 395 | "pygments_lexer": "ipython3", 396 | "version": "3.7.6" 397 | } 398 | }, 399 | "nbformat": 4, 400 | "nbformat_minor": 2 401 | } 402 | -------------------------------------------------------------------------------- /notebooks/10_numpy.ipynb: -------------------------------------------------------------------------------- 1 | { 2 | "cells": [ 3 | { 4 | "cell_type": "markdown", 5 | "metadata": {}, 6 | "source": [ 7 | "# Numpy\n", 8 | "\n", 9 | "Hemos trabajado de forma indirecta con arrays de numpy. Las columnas numéricas en `pandas` los utilizan. Por ejemplo:" 10 | ] 11 | }, 12 | { 13 | "cell_type": "code", 14 | "execution_count": null, 15 | "metadata": {}, 16 | "outputs": [], 17 | "source": [ 18 | "import pandas as pd\n", 19 | "import numpy as np\n", 20 | "\n", 21 | "venta = pd.read_csv('dat/venta-madrid-municipios.csv')\n", 22 | "venta.head()" 23 | ] 24 | }, 25 | { 26 | "cell_type": "code", 27 | "execution_count": null, 28 | "metadata": {}, 29 | "outputs": [], 30 | "source": [ 31 | "venta.dtypes" 32 | ] 33 | }, 34 | { 35 | "cell_type": "markdown", 36 | "metadata": {}, 37 | "source": [ 38 | "`numpy` nos facilita trabajar con arrays multi-dimensionales y aplicar operaciones matemáticas sobre ellos.\n", 39 | "\n", 40 | "Podemos extraer el array de `numpy` de una columna aplicando la función [`to_numpy`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.Series.to_numpy.html)" 41 | ] 42 | }, 43 | { 44 | "cell_type": "code", 45 | "execution_count": null, 46 | "metadata": {}, 47 | "outputs": [], 48 | "source": [ 49 | "venta.precio.to_numpy()" 50 | ] 51 | }, 52 | { 53 | "cell_type": "markdown", 54 | "metadata": {}, 55 | "source": [ 56 | "## Creación e inspección básica\n", 57 | "\n", 58 | "Tenemos varias utilidades para crear arrays de numpy. Una forma es especificar los elementos con `np.array`" 59 | ] 60 | }, 61 | { 62 | "cell_type": "code", 63 | "execution_count": null, 64 | "metadata": {}, 65 | "outputs": [], 66 | "source": [ 67 | "# Un array uni-dimensional\n", 68 | "a = np.array([2.3, 7.1, 4.7])\n", 69 | "a" 70 | ] 71 | }, 72 | { 73 | "cell_type": "code", 74 | "execution_count": null, 75 | "metadata": {}, 76 | "outputs": [], 77 | "source": [ 78 | "# Un array multi-dimensional (matrix 2x3)\n", 79 | "b = np.array([[2, 7, 4], [7, 1, 5]])\n", 80 | "b" 81 | ] 82 | }, 83 | { 84 | "cell_type": "code", 85 | "execution_count": null, 86 | "metadata": {}, 87 | "outputs": [], 88 | "source": [ 89 | "# Un array de booleanos\n", 90 | "c = np.array([True, False, False, True])\n", 91 | "c" 92 | ] 93 | }, 94 | { 95 | "cell_type": "markdown", 96 | "metadata": {}, 97 | "source": [ 98 | "Las propiedades más importantes que tiene un array son:\n", 99 | "\n", 100 | "* `shape`: las dimensiones\n", 101 | "* `dtype`: el tipo\n", 102 | "* `ndim`: el número de dimensiones (coincide con el número de elementos de `shape`)\n", 103 | "* `size`: el número total de elementos (coincide con el producto de los elementos de `shape`)" 104 | ] 105 | }, 106 | { 107 | "cell_type": "code", 108 | "execution_count": null, 109 | "metadata": {}, 110 | "outputs": [], 111 | "source": [ 112 | "b.shape" 113 | ] 114 | }, 115 | { 116 | "cell_type": "code", 117 | "execution_count": null, 118 | "metadata": {}, 119 | "outputs": [], 120 | "source": [ 121 | "b.dtype" 122 | ] 123 | }, 124 | { 125 | "cell_type": "code", 126 | "execution_count": null, 127 | "metadata": {}, 128 | "outputs": [], 129 | "source": [ 130 | "b.ndim" 131 | ] 132 | }, 133 | { 134 | "cell_type": "code", 135 | "execution_count": null, 136 | "metadata": {}, 137 | "outputs": [], 138 | "source": [ 139 | "b.size" 140 | ] 141 | }, 142 | { 143 | "cell_type": "markdown", 144 | "metadata": {}, 145 | "source": [ 146 | "#### Ejercicio\n", 147 | "\n", 148 | "Crea un array de tres dimensiones e inspecciónalo usando las propiedades descritas arriba" 149 | ] 150 | }, 151 | { 152 | "cell_type": "code", 153 | "execution_count": null, 154 | "metadata": {}, 155 | "outputs": [], 156 | "source": [] 157 | }, 158 | { 159 | "cell_type": "markdown", 160 | "metadata": {}, 161 | "source": [ 162 | "También existen otras funciones que facilitan crear arrays fácilmente, rellenos de ceros, unos u otros patrones habituales." 163 | ] 164 | }, 165 | { 166 | "cell_type": "code", 167 | "execution_count": null, 168 | "metadata": {}, 169 | "outputs": [], 170 | "source": [ 171 | "# Matriz de ceros\n", 172 | "np.zeros([3, 4])" 173 | ] 174 | }, 175 | { 176 | "cell_type": "code", 177 | "execution_count": null, 178 | "metadata": {}, 179 | "outputs": [], 180 | "source": [ 181 | "# Array de unos\n", 182 | "np.ones(6)" 183 | ] 184 | }, 185 | { 186 | "cell_type": "code", 187 | "execution_count": null, 188 | "metadata": {}, 189 | "outputs": [], 190 | "source": [ 191 | "# Array secuencial\n", 192 | "np.arange(4)" 193 | ] 194 | }, 195 | { 196 | "cell_type": "code", 197 | "execution_count": null, 198 | "metadata": {}, 199 | "outputs": [], 200 | "source": [ 201 | "# Matriz identidad\n", 202 | "np.eye(3)" 203 | ] 204 | }, 205 | { 206 | "cell_type": "markdown", 207 | "metadata": {}, 208 | "source": [ 209 | "#### Ejercicio\n", 210 | "\n", 211 | "Es útil poder crear arrays o matrices de números distribuidos aleatoriamente de cierta forma, para hacer demostraciones de métodos o probar rápidamente algo. Mira la documentación [aquí](https://docs.scipy.org/doc/numpy-1.14.1/reference/routines.random.html).\n", 212 | "\n", 213 | "Encuentra la forma de generar arrays con 10k elementos de las siguientes distribuciones y pinta sus histogramas:\n", 214 | "\n", 215 | "* Distribución uniforme entre 0 y 10\n", 216 | "* Distribución normal con media en 5 y desviación estándar 2\n", 217 | "* Distribución gamma con `k=2` y `theta=2`\n", 218 | "* Distribución beta con `alpha=5` y `beta=2`\n", 219 | "* Distribución beta con `alpha=2` y `beta=5`" 220 | ] 221 | }, 222 | { 223 | "cell_type": "code", 224 | "execution_count": null, 225 | "metadata": {}, 226 | "outputs": [], 227 | "source": [] 228 | }, 229 | { 230 | "cell_type": "markdown", 231 | "metadata": {}, 232 | "source": [ 233 | "## Operaciones\n", 234 | "\n", 235 | "Las operaciones suma, resta, multiplicación, potencia y comparación lógica se aplican elemento a elemento" 236 | ] 237 | }, 238 | { 239 | "cell_type": "code", 240 | "execution_count": null, 241 | "metadata": {}, 242 | "outputs": [], 243 | "source": [ 244 | "a = np.array([2, 5, 3])\n", 245 | "b = np.array([4, 1, 2])" 246 | ] 247 | }, 248 | { 249 | "cell_type": "code", 250 | "execution_count": null, 251 | "metadata": {}, 252 | "outputs": [], 253 | "source": [ 254 | "a - b" 255 | ] 256 | }, 257 | { 258 | "cell_type": "code", 259 | "execution_count": null, 260 | "metadata": {}, 261 | "outputs": [], 262 | "source": [ 263 | "a + b" 264 | ] 265 | }, 266 | { 267 | "cell_type": "code", 268 | "execution_count": null, 269 | "metadata": {}, 270 | "outputs": [], 271 | "source": [ 272 | "a ** 2" 273 | ] 274 | }, 275 | { 276 | "cell_type": "code", 277 | "execution_count": null, 278 | "metadata": {}, 279 | "outputs": [], 280 | "source": [ 281 | "a >= 3" 282 | ] 283 | }, 284 | { 285 | "cell_type": "code", 286 | "execution_count": null, 287 | "metadata": {}, 288 | "outputs": [], 289 | "source": [ 290 | "a * b" 291 | ] 292 | }, 293 | { 294 | "cell_type": "markdown", 295 | "metadata": {}, 296 | "source": [ 297 | "En Python, el operador `*` hace una multiplicación elemento a elemento. Si necesitas hacer una multiplicación entre matrices, puedes utilizar `@` o la función `dot()`." 298 | ] 299 | }, 300 | { 301 | "cell_type": "code", 302 | "execution_count": null, 303 | "metadata": {}, 304 | "outputs": [], 305 | "source": [ 306 | "A = np.array([[1, 2], [1, 2]])\n", 307 | "B = np.array([[1, 0], [2, 2]])" 308 | ] 309 | }, 310 | { 311 | "cell_type": "code", 312 | "execution_count": null, 313 | "metadata": {}, 314 | "outputs": [], 315 | "source": [ 316 | "# Elemento a elemento\n", 317 | "A * B" 318 | ] 319 | }, 320 | { 321 | "cell_type": "code", 322 | "execution_count": null, 323 | "metadata": {}, 324 | "outputs": [], 325 | "source": [ 326 | "# Multiplicación de matrices: forma 1\n", 327 | "A @ B" 328 | ] 329 | }, 330 | { 331 | "cell_type": "code", 332 | "execution_count": null, 333 | "metadata": {}, 334 | "outputs": [], 335 | "source": [ 336 | "# Multiplicación de matrices: forma 2\n", 337 | "A.dot(B)" 338 | ] 339 | }, 340 | { 341 | "cell_type": "markdown", 342 | "metadata": {}, 343 | "source": [ 344 | "#### Ejercicio\n", 345 | "\n", 346 | "Crea una matriz de 3x3 y multiplícala por la matriz identidad" 347 | ] 348 | }, 349 | { 350 | "cell_type": "code", 351 | "execution_count": null, 352 | "metadata": {}, 353 | "outputs": [], 354 | "source": [] 355 | }, 356 | { 357 | "cell_type": "markdown", 358 | "metadata": {}, 359 | "source": [ 360 | "`numpy` incorpora funciones matemáticas de utilidad, como `mean`, `max`, `argmax`, `std`, `median`, `abs`, `sqrt`, `sin`, `cos`, ..." 361 | ] 362 | }, 363 | { 364 | "cell_type": "code", 365 | "execution_count": null, 366 | "metadata": {}, 367 | "outputs": [], 368 | "source": [ 369 | "# Algunas se pueden invocar desde el array\n", 370 | "a.mean()" 371 | ] 372 | }, 373 | { 374 | "cell_type": "code", 375 | "execution_count": null, 376 | "metadata": {}, 377 | "outputs": [], 378 | "source": [ 379 | "# O desde el módulo de numpy\n", 380 | "np.mean(a)" 381 | ] 382 | }, 383 | { 384 | "cell_type": "markdown", 385 | "metadata": {}, 386 | "source": [ 387 | "En las funciones *de resumen* se puede especificar el eje (p.e. operación por filas, por columnas)" 388 | ] 389 | }, 390 | { 391 | "cell_type": "code", 392 | "execution_count": null, 393 | "metadata": {}, 394 | "outputs": [], 395 | "source": [ 396 | "A.sum()" 397 | ] 398 | }, 399 | { 400 | "cell_type": "code", 401 | "execution_count": null, 402 | "metadata": {}, 403 | "outputs": [], 404 | "source": [ 405 | "A.sum(axis=0)" 406 | ] 407 | }, 408 | { 409 | "cell_type": "code", 410 | "execution_count": null, 411 | "metadata": {}, 412 | "outputs": [], 413 | "source": [ 414 | "A.sum(axis=1)" 415 | ] 416 | }, 417 | { 418 | "cell_type": "markdown", 419 | "metadata": {}, 420 | "source": [ 421 | "## Casting\n", 422 | "\n", 423 | "El casting es la conversión de tipos. En algunos casos, este implica la pérdida de información (p.e. de `float` a `int`)." 424 | ] 425 | }, 426 | { 427 | "cell_type": "code", 428 | "execution_count": null, 429 | "metadata": {}, 430 | "outputs": [], 431 | "source": [ 432 | "# Para convertir, se eliminan los decimales (aunque esté más cerca del siguiente entero)\n", 433 | "a = np.array([2.3, 7.6, 4.99])\n", 434 | "a.astype(int)" 435 | ] 436 | }, 437 | { 438 | "cell_type": "markdown", 439 | "metadata": {}, 440 | "source": [ 441 | "#### Ejercicio\n", 442 | "\n", 443 | "Investiga y encuentra una forma de convertir un array de `float` a `int` redondeando de diferentes formas:\n", 444 | "\n", 445 | "* Al entero más cercano\n", 446 | "* Al entero inferior\n", 447 | "* Al entero superior" 448 | ] 449 | }, 450 | { 451 | "cell_type": "code", 452 | "execution_count": null, 453 | "metadata": {}, 454 | "outputs": [], 455 | "source": [] 456 | }, 457 | { 458 | "cell_type": "markdown", 459 | "metadata": {}, 460 | "source": [ 461 | "También podemos aplicar el casting entre otros tipos. Por ejemplo:" 462 | ] 463 | }, 464 | { 465 | "cell_type": "code", 466 | "execution_count": null, 467 | "metadata": {}, 468 | "outputs": [], 469 | "source": [ 470 | "np.array([1, 2, 5]).astype(float)" 471 | ] 472 | }, 473 | { 474 | "cell_type": "code", 475 | "execution_count": null, 476 | "metadata": {}, 477 | "outputs": [], 478 | "source": [ 479 | "np.array([True, False, True]).astype(int)" 480 | ] 481 | }, 482 | { 483 | "cell_type": "code", 484 | "execution_count": null, 485 | "metadata": {}, 486 | "outputs": [], 487 | "source": [ 488 | "np.array([0, 1, 2]).astype(bool)" 489 | ] 490 | }, 491 | { 492 | "cell_type": "markdown", 493 | "metadata": {}, 494 | "source": [ 495 | "## Acceso a elementos o rangos\n", 496 | "\n", 497 | "De forma parecida a como accedemos a elementos o rangos en listas y `DataFrames`, podemos hacerlo sobre arrays de `numpy`." 498 | ] 499 | }, 500 | { 501 | "cell_type": "code", 502 | "execution_count": null, 503 | "metadata": {}, 504 | "outputs": [], 505 | "source": [ 506 | "a = np.array([2, 3, 5, 7, 11, 13, 17, 19, 23])" 507 | ] 508 | }, 509 | { 510 | "cell_type": "code", 511 | "execution_count": null, 512 | "metadata": {}, 513 | "outputs": [], 514 | "source": [ 515 | "a[3]" 516 | ] 517 | }, 518 | { 519 | "cell_type": "code", 520 | "execution_count": null, 521 | "metadata": {}, 522 | "outputs": [], 523 | "source": [ 524 | "a[1:4]" 525 | ] 526 | }, 527 | { 528 | "cell_type": "code", 529 | "execution_count": null, 530 | "metadata": {}, 531 | "outputs": [], 532 | "source": [ 533 | "a[:4]" 534 | ] 535 | }, 536 | { 537 | "cell_type": "code", 538 | "execution_count": null, 539 | "metadata": {}, 540 | "outputs": [], 541 | "source": [ 542 | "# saltos\n", 543 | "a[::2]" 544 | ] 545 | }, 546 | { 547 | "cell_type": "markdown", 548 | "metadata": {}, 549 | "source": [ 550 | "Podemos sobrescribir elementos con la asignación" 551 | ] 552 | }, 553 | { 554 | "cell_type": "code", 555 | "execution_count": null, 556 | "metadata": {}, 557 | "outputs": [], 558 | "source": [ 559 | "b = a.copy()\n", 560 | "b" 561 | ] 562 | }, 563 | { 564 | "cell_type": "code", 565 | "execution_count": null, 566 | "metadata": {}, 567 | "outputs": [], 568 | "source": [ 569 | "b[1:3] = 0\n", 570 | "b" 571 | ] 572 | }, 573 | { 574 | "cell_type": "markdown", 575 | "metadata": {}, 576 | "source": [ 577 | "#### Ejercicio\n", 578 | "\n", 579 | "En el ejemplo anterior hemos cogido los elementos en índices pares. Haz lo mismo para los índices impares" 580 | ] 581 | }, 582 | { 583 | "cell_type": "code", 584 | "execution_count": null, 585 | "metadata": {}, 586 | "outputs": [], 587 | "source": [] 588 | }, 589 | { 590 | "cell_type": "markdown", 591 | "metadata": {}, 592 | "source": [ 593 | "## Manipulación de la forma\n", 594 | "\n", 595 | "Con `reshape` podemos alterar la forma de un array" 596 | ] 597 | }, 598 | { 599 | "cell_type": "code", 600 | "execution_count": null, 601 | "metadata": {}, 602 | "outputs": [], 603 | "source": [ 604 | "a = np.arange(12)\n", 605 | "a" 606 | ] 607 | }, 608 | { 609 | "cell_type": "code", 610 | "execution_count": null, 611 | "metadata": {}, 612 | "outputs": [], 613 | "source": [ 614 | "a.reshape(3, 4)" 615 | ] 616 | }, 617 | { 618 | "cell_type": "code", 619 | "execution_count": null, 620 | "metadata": {}, 621 | "outputs": [], 622 | "source": [ 623 | "a.reshape(4, 3)" 624 | ] 625 | }, 626 | { 627 | "cell_type": "markdown", 628 | "metadata": {}, 629 | "source": [ 630 | "Con `.T` obtenemos la traspuesta" 631 | ] 632 | }, 633 | { 634 | "cell_type": "code", 635 | "execution_count": null, 636 | "metadata": {}, 637 | "outputs": [], 638 | "source": [ 639 | "# Creamos una matriz de ejemplo de 2x3\n", 640 | "A = np.arange(6).reshape(2, 3)\n", 641 | "A" 642 | ] 643 | }, 644 | { 645 | "cell_type": "code", 646 | "execution_count": null, 647 | "metadata": {}, 648 | "outputs": [], 649 | "source": [ 650 | "# La traspuesta\n", 651 | "A.T" 652 | ] 653 | }, 654 | { 655 | "cell_type": "markdown", 656 | "metadata": {}, 657 | "source": [ 658 | "Con `ravel` aplanamos una matriz" 659 | ] 660 | }, 661 | { 662 | "cell_type": "code", 663 | "execution_count": null, 664 | "metadata": {}, 665 | "outputs": [], 666 | "source": [ 667 | "A.ravel()" 668 | ] 669 | }, 670 | { 671 | "cell_type": "markdown", 672 | "metadata": {}, 673 | "source": [ 674 | "#### Ejercicio\n", 675 | "\n", 676 | "Aplana la matriz anterior sin utilizar `ravel`." 677 | ] 678 | }, 679 | { 680 | "cell_type": "code", 681 | "execution_count": null, 682 | "metadata": {}, 683 | "outputs": [], 684 | "source": [] 685 | }, 686 | { 687 | "cell_type": "markdown", 688 | "metadata": {}, 689 | "source": [ 690 | "#### Ejercicio\n", 691 | "\n", 692 | "Crea una función genérica `flatten` que aplane cualquier array multi-dimensional de `numpy`. Prueba que funcione bien con diferente número de dimensiones." 693 | ] 694 | }, 695 | { 696 | "cell_type": "code", 697 | "execution_count": null, 698 | "metadata": {}, 699 | "outputs": [], 700 | "source": [] 701 | }, 702 | { 703 | "cell_type": "markdown", 704 | "metadata": {}, 705 | "source": [ 706 | "## Nulos e infinitos\n", 707 | "\n", 708 | "Los arrays de `numpy` pueden contener valores nulos (`NaN`) e infinitos (positivos o negativos). Por ejemplo:" 709 | ] 710 | }, 711 | { 712 | "cell_type": "code", 713 | "execution_count": null, 714 | "metadata": {}, 715 | "outputs": [], 716 | "source": [ 717 | "a = np.array([1, np.NaN, 5, -np.Inf])\n", 718 | "a" 719 | ] 720 | }, 721 | { 722 | "cell_type": "markdown", 723 | "metadata": {}, 724 | "source": [ 725 | "Nos suele interesar detectar estos valores para tratarlos (p.e. eliminarlos o imputarlos)" 726 | ] 727 | }, 728 | { 729 | "cell_type": "code", 730 | "execution_count": null, 731 | "metadata": {}, 732 | "outputs": [], 733 | "source": [ 734 | "np.isnan(a)" 735 | ] 736 | }, 737 | { 738 | "cell_type": "code", 739 | "execution_count": null, 740 | "metadata": {}, 741 | "outputs": [], 742 | "source": [ 743 | "# NaN no es finito\n", 744 | "np.isfinite(a)" 745 | ] 746 | }, 747 | { 748 | "cell_type": "markdown", 749 | "metadata": {}, 750 | "source": [ 751 | "Podemos utilizar los métodos de arriba como condición, y seleccionar solo algunos elementos del array" 752 | ] 753 | }, 754 | { 755 | "cell_type": "code", 756 | "execution_count": null, 757 | "metadata": {}, 758 | "outputs": [], 759 | "source": [ 760 | "# Utilizamos ~ como NOT, igual que con DataFrames\n", 761 | "a[~np.isnan(a)]" 762 | ] 763 | }, 764 | { 765 | "cell_type": "code", 766 | "execution_count": null, 767 | "metadata": {}, 768 | "outputs": [], 769 | "source": [ 770 | "a[np.isfinite(a)]" 771 | ] 772 | }, 773 | { 774 | "cell_type": "markdown", 775 | "metadata": {}, 776 | "source": [ 777 | "#### Ejercicio\n", 778 | "\n", 779 | "Crea una función `imputa_media` que acepte un array e impute los valores no-finitos por la media del resto.\n", 780 | "\n", 781 | "*Nota*: haz una copia del array al comienzo de tu función para evitar modificar el original" 782 | ] 783 | }, 784 | { 785 | "cell_type": "code", 786 | "execution_count": null, 787 | "metadata": {}, 788 | "outputs": [], 789 | "source": [] 790 | }, 791 | { 792 | "cell_type": "markdown", 793 | "metadata": {}, 794 | "source": [ 795 | "#### Ejercicio\n", 796 | "\n", 797 | "Crea una función `imputa` similar a la anterior, pero que la función de imputación (media, mediana) sea un argumento más. Por ejemplo, para replicar el comportamiento de la función anterior, usaríamos:\n", 798 | "\n", 799 | "```\n", 800 | "imputa(a, np.mean)\n", 801 | "```" 802 | ] 803 | }, 804 | { 805 | "cell_type": "code", 806 | "execution_count": null, 807 | "metadata": {}, 808 | "outputs": [], 809 | "source": [] 810 | }, 811 | { 812 | "cell_type": "markdown", 813 | "metadata": {}, 814 | "source": [ 815 | "#### Ejercicio\n", 816 | "\n", 817 | "Crea un array de 10 posiciones con números aleatorios y sustituye el valor más alto por la mitad de este" 818 | ] 819 | }, 820 | { 821 | "cell_type": "code", 822 | "execution_count": null, 823 | "metadata": {}, 824 | "outputs": [], 825 | "source": [] 826 | }, 827 | { 828 | "cell_type": "markdown", 829 | "metadata": {}, 830 | "source": [ 831 | "#### Ejercicio\n", 832 | "\n", 833 | "Crea un array con 20 números aleatorios distribuidos uniformemente entre 0 y 10 y encuentra el valor más cercano a 7." 834 | ] 835 | }, 836 | { 837 | "cell_type": "code", 838 | "execution_count": null, 839 | "metadata": {}, 840 | "outputs": [], 841 | "source": [] 842 | }, 843 | { 844 | "cell_type": "markdown", 845 | "metadata": {}, 846 | "source": [ 847 | "#### Ejercicio\n", 848 | "\n", 849 | "Sobre la matriz `A`, resta a cada fila la media de esta." 850 | ] 851 | }, 852 | { 853 | "cell_type": "code", 854 | "execution_count": null, 855 | "metadata": {}, 856 | "outputs": [], 857 | "source": [ 858 | "A = np.array([[1, 2, 3], [1, 5, 6], [2, 2, 2]])\n", 859 | "A" 860 | ] 861 | }, 862 | { 863 | "cell_type": "code", 864 | "execution_count": null, 865 | "metadata": {}, 866 | "outputs": [], 867 | "source": [] 868 | }, 869 | { 870 | "cell_type": "markdown", 871 | "metadata": {}, 872 | "source": [ 873 | "#### Ejercicio\n", 874 | "\n", 875 | "Sobre el array con los números del 1 al 5, construye un nuevo array que intercale tres ceros consecutivos entre cada valor" 876 | ] 877 | }, 878 | { 879 | "cell_type": "code", 880 | "execution_count": null, 881 | "metadata": {}, 882 | "outputs": [], 883 | "source": [] 884 | }, 885 | { 886 | "cell_type": "markdown", 887 | "metadata": {}, 888 | "source": [ 889 | "## Referencia\n", 890 | "\n", 891 | "Esta documentación está basada en el tutorial de numpy disponible [aquí](https://docs.scipy.org/doc/numpy/user/quickstart.html). Consúltalo para ampliar información." 892 | ] 893 | }, 894 | { 895 | "cell_type": "code", 896 | "execution_count": null, 897 | "metadata": {}, 898 | "outputs": [], 899 | "source": [] 900 | } 901 | ], 902 | "metadata": { 903 | "kernelspec": { 904 | "display_name": "libropython", 905 | "language": "python", 906 | "name": "libropython" 907 | }, 908 | "language_info": { 909 | "codemirror_mode": { 910 | "name": "ipython", 911 | "version": 3 912 | }, 913 | "file_extension": ".py", 914 | "mimetype": "text/x-python", 915 | "name": "python", 916 | "nbconvert_exporter": "python", 917 | "pygments_lexer": "ipython3", 918 | "version": "3.7.3" 919 | } 920 | }, 921 | "nbformat": 4, 922 | "nbformat_minor": 2 923 | } 924 | -------------------------------------------------------------------------------- /notebooks/11_pivotacion_tablas.ipynb: -------------------------------------------------------------------------------- 1 | { 2 | "cells": [ 3 | { 4 | "cell_type": "markdown", 5 | "metadata": {}, 6 | "source": [ 7 | "# Pivotación de tablas\n", 8 | "\n", 9 | "Vamos a ver cómo transformar las tablas de formato ancho a largo y viceversa" 10 | ] 11 | }, 12 | { 13 | "cell_type": "code", 14 | "execution_count": null, 15 | "metadata": {}, 16 | "outputs": [], 17 | "source": [ 18 | "import pandas as pd" 19 | ] 20 | }, 21 | { 22 | "cell_type": "code", 23 | "execution_count": null, 24 | "metadata": {}, 25 | "outputs": [], 26 | "source": [ 27 | "air = pd.read_csv(\"dat/airquality.csv\")\n", 28 | "air.head()" 29 | ] 30 | }, 31 | { 32 | "cell_type": "markdown", 33 | "metadata": {}, 34 | "source": [ 35 | "## Melt: de ancho a largo\n", 36 | "\n", 37 | "Para pasar de formato ancho a largo, podemos usar [`melt`](https://pandas.pydata.org/pandas-docs/version/0.23/generated/pandas.melt.html)" 38 | ] 39 | }, 40 | { 41 | "cell_type": "code", 42 | "execution_count": null, 43 | "metadata": {}, 44 | "outputs": [], 45 | "source": [ 46 | "air_long = air.melt(id_vars=['month', 'day'])\n", 47 | "air_long.head()" 48 | ] 49 | }, 50 | { 51 | "cell_type": "markdown", 52 | "metadata": {}, 53 | "source": [ 54 | "Vemos que, para cada mes y día, ahora contamos con dos columnas: la variable medida y su valor.\n", 55 | "\n", 56 | "En el formato largo, cada fila cuenta con el índice (en este caso, mes y día), un valor, y etiquetas del valor." 57 | ] 58 | }, 59 | { 60 | "cell_type": "markdown", 61 | "metadata": {}, 62 | "source": [ 63 | "## Pivot: de largo a ancho\n", 64 | "\n", 65 | "Para pasar de formato largo a ancho, podemos usar [`pivot_table`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.pivot_table.html)" 66 | ] 67 | }, 68 | { 69 | "cell_type": "code", 70 | "execution_count": null, 71 | "metadata": {}, 72 | "outputs": [], 73 | "source": [ 74 | "air_wide = air_long.pivot_table(index=['month', 'day'], columns='variable', values='value')\n", 75 | "air_wide.head()" 76 | ] 77 | }, 78 | { 79 | "cell_type": "markdown", 80 | "metadata": {}, 81 | "source": [ 82 | "Los índices jerárquicos suelen ser incómodos para tratar la tabla. Podemos quitarlo con `reset_index()`" 83 | ] 84 | }, 85 | { 86 | "cell_type": "code", 87 | "execution_count": null, 88 | "metadata": {}, 89 | "outputs": [], 90 | "source": [ 91 | "air_wide = air_wide.reset_index()\n", 92 | "air_wide.head()" 93 | ] 94 | }, 95 | { 96 | "cell_type": "code", 97 | "execution_count": null, 98 | "metadata": {}, 99 | "outputs": [], 100 | "source": [ 101 | "# Si además queremos quitar el nombre \"feo\" que se ha quedado como nombre de las columnas...\n", 102 | "del air_wide.columns.name\n", 103 | "air_wide.head()" 104 | ] 105 | }, 106 | { 107 | "cell_type": "markdown", 108 | "metadata": {}, 109 | "source": [ 110 | "#### Ejercicio\n", 111 | "\n", 112 | "Investiga y cambia los nombres de las columnas resultantes (variable y value) por otros que consideres adecuados, durante el proceso de `melt`." 113 | ] 114 | }, 115 | { 116 | "cell_type": "code", 117 | "execution_count": null, 118 | "metadata": {}, 119 | "outputs": [], 120 | "source": [] 121 | }, 122 | { 123 | "cell_type": "markdown", 124 | "metadata": {}, 125 | "source": [ 126 | "#### Ejercicio\n", 127 | "\n", 128 | "La función [`pivot_table`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.pivot_table.html) permite agregar si hay más de un valor por cada fila (es decir, parejas de índice + variable duplicadas).\n", 129 | "\n", 130 | "Aprovecha esta utilidad para, en el paso de `air_long` a ancho, calcular la mediana por variable por mes." 131 | ] 132 | }, 133 | { 134 | "cell_type": "code", 135 | "execution_count": null, 136 | "metadata": {}, 137 | "outputs": [], 138 | "source": [] 139 | }, 140 | { 141 | "cell_type": "markdown", 142 | "metadata": {}, 143 | "source": [ 144 | "#### Ejercicio\n", 145 | "\n", 146 | "Carga en un dataframe el fichero `dat/contaminacion_mad_201812.csv`, y mira qué aspecto tiene. Nuestro objetivo es dejarlo en formato largo, y quedarnos únicamente con los días con una medida válida. Para hacerlo:\n", 147 | "\n", 148 | "* A partir de ese dataframe, crea dos nuevos:\n", 149 | "\n", 150 | " * Uno con el índice + las columnas con los valores (D01, ..., D31)\n", 151 | " * Otro con el índice + las columnas con la validez (V01, ..., V31)\n", 152 | "\n", 153 | "* Pasa ambos a formato largo. El día debe quedar como numérico en ambos.\n", 154 | "* Cruza los resultados, para tener en el mismo dataframe valor y validez\n", 155 | "* Limpia la fecha, para tenerla como `date`" 156 | ] 157 | }, 158 | { 159 | "cell_type": "code", 160 | "execution_count": null, 161 | "metadata": {}, 162 | "outputs": [], 163 | "source": [] 164 | }, 165 | { 166 | "cell_type": "markdown", 167 | "metadata": {}, 168 | "source": [ 169 | "#### Referencia\n", 170 | "\n", 171 | "Puedes consultar la guía completa de pandas sobre pivotación [aquí](http://pandas.pydata.org/pandas-docs/stable/user_guide/reshaping.html)" 172 | ] 173 | }, 174 | { 175 | "cell_type": "code", 176 | "execution_count": null, 177 | "metadata": {}, 178 | "outputs": [], 179 | "source": [] 180 | } 181 | ], 182 | "metadata": { 183 | "kernelspec": { 184 | "display_name": "libropython", 185 | "language": "python", 186 | "name": "libropython" 187 | }, 188 | "language_info": { 189 | "codemirror_mode": { 190 | "name": "ipython", 191 | "version": 3 192 | }, 193 | "file_extension": ".py", 194 | "mimetype": "text/x-python", 195 | "name": "python", 196 | "nbconvert_exporter": "python", 197 | "pygments_lexer": "ipython3", 198 | "version": "3.7.3" 199 | } 200 | }, 201 | "nbformat": 4, 202 | "nbformat_minor": 2 203 | } 204 | -------------------------------------------------------------------------------- /notebooks/12_bases_de_datos.ipynb: -------------------------------------------------------------------------------- 1 | { 2 | "cells": [ 3 | { 4 | "cell_type": "markdown", 5 | "metadata": {}, 6 | "source": [ 7 | "# Bases de datos\n", 8 | "\n", 9 | "Las bases de datos nos pueden servir como fuente, como destino de los resultados, o ambas. Vamos a ver cómo leer y escribir datos desde Python.\n", 10 | "\n", 11 | "Para estos ejemplos, utilizaremos una base de datos `sqlite` en local." 12 | ] 13 | }, 14 | { 15 | "cell_type": "code", 16 | "execution_count": null, 17 | "metadata": {}, 18 | "outputs": [], 19 | "source": [ 20 | "import sqlite3\n", 21 | "import pandas as pd" 22 | ] 23 | }, 24 | { 25 | "cell_type": "markdown", 26 | "metadata": {}, 27 | "source": [ 28 | "## Conexión\n", 29 | "\n", 30 | "Esto varía dependiendo de la BD a la que te vayas a conectar:\n", 31 | "\n", 32 | "* sqlite: es neceario el módulo `sqlite3`, que vamos a utilizar\n", 33 | "* PostgreSQL: necesitas el módulo `psycopg2`\n", 34 | "* MySQL: hay varias alternativas, como `pymysql` o `mysqlclient`" 35 | ] 36 | }, 37 | { 38 | "cell_type": "code", 39 | "execution_count": null, 40 | "metadata": {}, 41 | "outputs": [], 42 | "source": [ 43 | "conn = sqlite3.connect('11_bd_temporal.sqlite')" 44 | ] 45 | }, 46 | { 47 | "cell_type": "markdown", 48 | "metadata": {}, 49 | "source": [ 50 | "## Escritura\n", 51 | "\n", 52 | "Podemos volcar un dataframe a una tabla de la base de datos con [`DataFrame.to_sql`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.to_sql.html)." 53 | ] 54 | }, 55 | { 56 | "cell_type": "code", 57 | "execution_count": null, 58 | "metadata": {}, 59 | "outputs": [], 60 | "source": [ 61 | "alquiler = pd.read_csv('dat/alquiler-madrid-distritos.csv')\n", 62 | "alquiler.head()" 63 | ] 64 | }, 65 | { 66 | "cell_type": "code", 67 | "execution_count": null, 68 | "metadata": {}, 69 | "outputs": [], 70 | "source": [ 71 | "alquiler.to_sql('alquiler', conn)" 72 | ] 73 | }, 74 | { 75 | "cell_type": "markdown", 76 | "metadata": {}, 77 | "source": [ 78 | "## Consultas\n", 79 | "\n", 80 | "Para lanzar consultas a la base de datos y obtener el resultado en un dataframe, podemos usar [`pd.read_sql()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.read_sql.html)" 81 | ] 82 | }, 83 | { 84 | "cell_type": "code", 85 | "execution_count": null, 86 | "metadata": {}, 87 | "outputs": [], 88 | "source": [ 89 | "query = '''\n", 90 | "select distrito, ano, quarter, precio\n", 91 | "from alquiler\n", 92 | "where distrito = 'Retiro'\n", 93 | "and ano between 2012 and 2014\n", 94 | "'''\n", 95 | "\n", 96 | "pd.read_sql(query, conn)" 97 | ] 98 | }, 99 | { 100 | "cell_type": "markdown", 101 | "metadata": {}, 102 | "source": [ 103 | "#### Ejercicio\n", 104 | "\n", 105 | "Parametriza la query, de forma que el distrito, el año mínimo y el año máximo sean variables. Invoca la query utilizando el argumento `params` de `read_sql`" 106 | ] 107 | }, 108 | { 109 | "cell_type": "code", 110 | "execution_count": null, 111 | "metadata": {}, 112 | "outputs": [], 113 | "source": [] 114 | }, 115 | { 116 | "cell_type": "markdown", 117 | "metadata": {}, 118 | "source": [ 119 | "Parametrizar es importante para evitar inyección de SQL. Esto es especialmente importante si los datos son introducidos por usuarios. [xkcd](http://imgs.xkcd.com/comics/exploits_of_a_mom.png)" 120 | ] 121 | }, 122 | { 123 | "cell_type": "markdown", 124 | "metadata": {}, 125 | "source": [ 126 | "## Carga de resultados\n", 127 | "\n", 128 | "Aunque hemos visto que se puede crear y alimentar una tabla en el momento con `to_sql`, lo más habitual es que nuestra base de datos ya tenga las tablas creadas (con su esquema bien definido, índices, claves foráneas, ...) y que queramos añadir datos.\n", 129 | "\n", 130 | "Vamos a crear una tabla definiendo su esquema, para ver como podríamos añadir los datos de un dataframe sin crearla de cero en `to_sql`." 131 | ] 132 | }, 133 | { 134 | "cell_type": "code", 135 | "execution_count": null, 136 | "metadata": {}, 137 | "outputs": [], 138 | "source": [ 139 | "c = conn.cursor()\n", 140 | "c.execute('''create table alquiler_2\n", 141 | " (distrito text, ano integer, quarter integer, precio real)''')" 142 | ] 143 | }, 144 | { 145 | "cell_type": "markdown", 146 | "metadata": {}, 147 | "source": [ 148 | "Comprobamos que está vacía" 149 | ] 150 | }, 151 | { 152 | "cell_type": "code", 153 | "execution_count": null, 154 | "metadata": {}, 155 | "outputs": [], 156 | "source": [ 157 | "pd.read_sql('select * from alquiler_2', conn)" 158 | ] 159 | }, 160 | { 161 | "cell_type": "markdown", 162 | "metadata": {}, 163 | "source": [ 164 | "Agregamos los datos a la tabla existente" 165 | ] 166 | }, 167 | { 168 | "cell_type": "code", 169 | "execution_count": null, 170 | "metadata": {}, 171 | "outputs": [], 172 | "source": [ 173 | "alquiler.to_sql('alquiler_2', conn, index=False, if_exists='append')" 174 | ] 175 | }, 176 | { 177 | "cell_type": "code", 178 | "execution_count": null, 179 | "metadata": {}, 180 | "outputs": [], 181 | "source": [ 182 | "pd.read_sql('select * from alquiler_2 limit 5', conn) " 183 | ] 184 | }, 185 | { 186 | "cell_type": "markdown", 187 | "metadata": {}, 188 | "source": [ 189 | "## Cierre de conexión" 190 | ] 191 | }, 192 | { 193 | "cell_type": "code", 194 | "execution_count": null, 195 | "metadata": {}, 196 | "outputs": [], 197 | "source": [ 198 | "conn.close()" 199 | ] 200 | }, 201 | { 202 | "cell_type": "markdown", 203 | "metadata": {}, 204 | "source": [ 205 | "#### Ejercicio\n", 206 | "\n", 207 | "Crea una BD de sqlite nueva donde cargues información de alojamientos y barrios de Madrid de AirBnB. La información está disponible [aquí](http://insideairbnb.com/get-the-data.html). Los ficheros a cargar son `listings.csv` y `neighbourhoods.csv`.\n", 208 | "\n", 209 | "Una vez cargados, prueba a hacer algunas consultas que sean de tu interés." 210 | ] 211 | }, 212 | { 213 | "cell_type": "code", 214 | "execution_count": null, 215 | "metadata": {}, 216 | "outputs": [], 217 | "source": [] 218 | } 219 | ], 220 | "metadata": { 221 | "kernelspec": { 222 | "display_name": "libropython", 223 | "language": "python", 224 | "name": "libropython" 225 | }, 226 | "language_info": { 227 | "codemirror_mode": { 228 | "name": "ipython", 229 | "version": 3 230 | }, 231 | "file_extension": ".py", 232 | "mimetype": "text/x-python", 233 | "name": "python", 234 | "nbconvert_exporter": "python", 235 | "pygments_lexer": "ipython3", 236 | "version": "3.7.3" 237 | } 238 | }, 239 | "nbformat": 4, 240 | "nbformat_minor": 2 241 | } 242 | -------------------------------------------------------------------------------- /notebooks/13_produccion.ipynb: -------------------------------------------------------------------------------- 1 | { 2 | "cells": [ 3 | { 4 | "cell_type": "markdown", 5 | "metadata": {}, 6 | "source": [ 7 | "# Producción\n", 8 | "\n", 9 | "Hasta el momento, solo nos hemos preocupado de las fases de exploración y desarrollo. En ellas, prima la interactividad del entorno y el objetivo es que el equipo encargado de esta fase sea lo más productivo posible.\n", 10 | "\n", 11 | "A la hora de pasar a producción, cambian las prioridades. Cobran importancia:\n", 12 | "\n", 13 | "* Automatización: ya no queremos ni necesitamos interactividad, sino procesos que corran sin intervención humana\n", 14 | "* Robustez: que los procesos controlen casos extremos para no fallar, y que las partes con probabilidad de fallo (p.e. escritura de fichero, peticiones por internet, scraping, ...) se gestionen correctamente\n", 15 | "* Logging: generación de trazas del proceso (informativas, de error, ...) para que se puedan consultar como parte de una operativa normal o de error inesperado\n", 16 | "* Alarmas: en el caso de que algo vaya mal sobre un proceso crítico, debemos tener un mecanismo de aviso\n", 17 | "* Estabilidad: mientras que en desarrollo podemos actualizar a nuevas versiones del lenguaje o de sus dependencias, en producción el entorno debe ser estable, y ser actualizado únicamente bajo demanda y habiendo comprobado que todo funciona correctamente" 18 | ] 19 | }, 20 | { 21 | "cell_type": "markdown", 22 | "metadata": {}, 23 | "source": [ 24 | "## Estructura del proyecto\n", 25 | "\n", 26 | "Los notebooks de jupyter nos permiten desarrollar en un entorno interactivo. Pero un proyecto final que pasa a producción, seguirá una estructura de módulos (carpetas) estructurada.\n", 27 | "\n", 28 | "Una estructura de ejemplo para un proyecto de clasificación de vinos:\n", 29 | "\n", 30 | "```\n", 31 | "|-- wineclassifier/ # Raíz del proyecto (repositorio git)\n", 32 | " |-- wineclassifier/\n", 33 | " |-- __init__.py # Requerido al ser un módulo, habitualmente vacío\n", 34 | " |-- config.[py|yml] # Configuración (cadenas de conexión, parametrización del modelo, ...)\n", 35 | " |-- model/ # Código relacionado con la generación del modelo\n", 36 | " |-- __init__.py\n", 37 | " |-- preprocess.py\n", 38 | " |-- regression.py \n", 39 | " |-- resources/ # Recursos como queries, ...\n", 40 | " |-- __init__py\n", 41 | " |-- queries.py\n", 42 | " |-- util/ # Útiles, bastante reutilizables entre proyectos: lógica de conexión a BD, ...\n", 43 | " |-- __init__py\n", 44 | " |-- bd.py\n", 45 | " |-- storage.py\n", 46 | " |-- requirements.txt # Dependencias con sus versiones del proyecto\n", 47 | " |-- train.py # Lanza el entrenamiento\n", 48 | " |-- predict.py # Lanza la predicción (batch, levanta API, ...)\n", 49 | " |-- README.md # Instrucciones para lanzar el proyecto y doc importante\n", 50 | "```" 51 | ] 52 | }, 53 | { 54 | "cell_type": "markdown", 55 | "metadata": {}, 56 | "source": [ 57 | "## Referencias\n", 58 | "\n", 59 | "Más información:\n", 60 | "\n", 61 | "* [Gestión excepciones en Python](https://www.datacamp.com/community/tutorials/exception-handling-python)\n", 62 | "* [Tutorial de logging básico](https://code-maven.com/simple-logging-in-python)\n", 63 | "* [Tutorial de docker](https://djangostars.com/blog/what-is-docker-and-how-to-use-it-with-python/)\n", 64 | "* [Tutorial de testing](https://semaphoreci.com/community/tutorials/testing-python-applications-with-pytest)\n", 65 | "* [CI/CD con GitHub, Travis y más](https://github.com/ksator/continuous-integration-with-python)\n", 66 | "* [Convertir un modelo de ML en una API](https://www.datacamp.com/community/tutorials/machine-learning-models-api-python)\n", 67 | "* [Virtual envs con conda](https://uoa-eresearch.github.io/eresearch-cookbook/recipe/2014/11/20/conda/)\n", 68 | "\n", 69 | "Ejemplos de proyectos:\n", 70 | "\n", 71 | "* [Homemade machine learning](https://github.com/trekhleb/homemade-machine-learning)" 72 | ] 73 | }, 74 | { 75 | "cell_type": "code", 76 | "execution_count": null, 77 | "metadata": {}, 78 | "outputs": [], 79 | "source": [] 80 | } 81 | ], 82 | "metadata": { 83 | "kernelspec": { 84 | "display_name": "Python 3", 85 | "language": "python", 86 | "name": "python3" 87 | }, 88 | "language_info": { 89 | "codemirror_mode": { 90 | "name": "ipython", 91 | "version": 3 92 | }, 93 | "file_extension": ".py", 94 | "mimetype": "text/x-python", 95 | "name": "python", 96 | "nbconvert_exporter": "python", 97 | "pygments_lexer": "ipython3", 98 | "version": "3.7.2" 99 | } 100 | }, 101 | "nbformat": 4, 102 | "nbformat_minor": 2 103 | } 104 | -------------------------------------------------------------------------------- /notebooks/14_entornos.ipynb: -------------------------------------------------------------------------------- 1 | { 2 | "cells": [ 3 | { 4 | "cell_type": "markdown", 5 | "metadata": {}, 6 | "source": [ 7 | "# Gestión de entornos\n", 8 | "\n", 9 | "## Python y gestión de versiones\n", 10 | "\n", 11 | "Cuando iniciamos un proyecto, lo ideal es que este funcione bajo la última versión de Python y las librerías que necesitamos. Pero debemos tener mecanismos para utilizar otras versiones más antiguas, por varios motivos:\n", 12 | "\n", 13 | "* Imposición del entorno. En entornos corporativos se suele fijar la versión a utilizar por motivos de reutilización de arquitecturas o seguridad.\n", 14 | "* Evolución de proyectos antiguos.\n", 15 | "\n", 16 | "Una buena herramienta para hacerlo es [`pyenv`](https://github.com/pyenv/pyenv)\n", 17 | "\n", 18 | "### pyenv\n", 19 | "\n", 20 | "`pyenv` es un gestor de versiones de Python. Permite tener instaladas varias versiones y cambiar entre ellas fácilmente." 21 | ] 22 | }, 23 | { 24 | "cell_type": "markdown", 25 | "metadata": {}, 26 | "source": [ 27 | "##### Ejercicio\n", 28 | "\n", 29 | "Instala pyenv y ejecútalo sin argumentos. Examina los comandos útiles que muestra y entiende qué es lo que hacen." 30 | ] 31 | }, 32 | { 33 | "cell_type": "markdown", 34 | "metadata": {}, 35 | "source": [ 36 | "#### `pyenv install --list`\n", 37 | "\n", 38 | "Muestra todas las versiones disponibles de Python para instalar. Si te faltan las versiones más nuevas, tendrás que actualizar pyenv" 39 | ] 40 | }, 41 | { 42 | "cell_type": "markdown", 43 | "metadata": {}, 44 | "source": [ 45 | "#### `pyenv install `\n", 46 | "\n", 47 | "Instala una versión específica de python" 48 | ] 49 | }, 50 | { 51 | "cell_type": "markdown", 52 | "metadata": {}, 53 | "source": [ 54 | "#### `pyenv versions`\n", 55 | "\n", 56 | "Consulta las versiones instaladas." 57 | ] 58 | }, 59 | { 60 | "cell_type": "markdown", 61 | "metadata": {}, 62 | "source": [ 63 | "#### `pyenv global `\n", 64 | "\n", 65 | "Setea una versión concreta de python como la global del sistema. Si compartes el equipo con otros desarrolladores y quieres instalarla solo en tu usuario, utiliza `user` en lugar de `global`.\n", 66 | "\n", 67 | "Para consultar qué versión tienes actualmente, puedes lanzar el comando sin el último parámetro. Es decir, `pyenv global`" 68 | ] 69 | }, 70 | { 71 | "cell_type": "markdown", 72 | "metadata": {}, 73 | "source": [ 74 | "##### Ejercicio\n", 75 | "\n", 76 | "1. Instala las siguientes versiones de python:\n", 77 | "\n", 78 | " * 3.5\n", 79 | " * 3.7\n", 80 | " * 3.8\n", 81 | "\n", 82 | "2. Comprueba que estén instaladas correctamente\n", 83 | "3. Activa cada una de ellas, consulta la versión y ejecuta comandos para comprobar que estás en esa versión\n", 84 | "\n", 85 | "Algunos comandos que solo funcionan en versiones específicas son:\n", 86 | "\n", 87 | "```\n", 88 | "# Solo funciona en 3.7 y 3.8\n", 89 | "nombre = \"Pepa\"\n", 90 | "f\"Hola {nombre}\"\n", 91 | "\n", 92 | "# Solo funciona en 3.8\n", 93 | "print(cadena := \"Hola Pepa\")\n", 94 | "```\n", 95 | "\n", 96 | "_Nota_: las versiones las especifico aquí solo hasta la _minor_. Elige la _patch_ más reciente dentro de cada una de ellas. Recuerda que las versiones son `_major_._minor_._patch_`.\n", 97 | "_Nota_: si te interesa consultar las últimas funcionalidades implementadas en python 3.8, puedes hacerlo [aquí](https://realpython.com/python38-new-features/)" 98 | ] 99 | }, 100 | { 101 | "cell_type": "markdown", 102 | "metadata": {}, 103 | "source": [ 104 | "## Entornos virtuales y gestión de dependencias\n", 105 | "\n", 106 | "Tanto el lenguaje en sí, como las librerías son algo vivo, que evoluciona. Un proyecto puede funcionar correctamente bajo una versión de Python y de las librerías que utilice (p.e. `pandas`, `seaborn`) y fallar en otras versiones.\n", 107 | "\n", 108 | "Por este motivo, necesitamos una herramienta que fije estas versiones y asegure unicidad en el equipo de desarrollo y los diferentes entornos.\n", 109 | "\n", 110 | "Esto se puede gestionar mediante los entornos virtuales. Hasta ahora, los paquetes los instalábamos a nivel global, para nuestro usuario o todos los usuarios de la máquina. Con los entornos virtuales, podemos tener un conjunto de paquetes y sus versiones por cada proyecto.\n", 111 | "\n", 112 | "Para la gestión de paquetes, en entornos productivos se suele utilizar [`pip`](https://pypi.org/project/pip/).\n", 113 | "\n", 114 | "_Nota_: Anaconda trae su propio gestor de paquetes, [`conda`](https://pypi.org/project/conda/)" 115 | ] 116 | }, 117 | { 118 | "cell_type": "markdown", 119 | "metadata": {}, 120 | "source": [ 121 | "### Opción 1: pipenv (recomendado)\n", 122 | "\n", 123 | "[`pipenv`](https://pipenv-fork.readthedocs.io/en/latest/) gestiona entornos virtuales y los sincroniza con lo instalado vía `pip`.\n", 124 | "\n", 125 | "#### Creación del entorno virtual\n", 126 | "\n", 127 | "La primera vez que lanzamos pipenv sobre una carpeta que no contiene un `Pipfile`, crea el entorno virtual vacío. Si existiera un `requirements.txt`, crea un entorno virtual respetando las dependencias listadas en el fichero. A partir de ese momento, podemos utilizar `pipenv` como si fuera `pip` para instalar dependencias.\n", 128 | "\n", 129 | "```\n", 130 | "cd my_project\n", 131 | "pipenv install\n", 132 | "```\n", 133 | "\n", 134 | "Esto crea dos ficheros nuevos que, idealmente, estarán ambos en el control de versiones del proyecto. `Pipfile` recoge los paquetes instalados, si son necesarios únicamente en desarrollo o producción y meta información relacionada. `Pipfile.lock` recoge las versiones concretas de las dependencias y subdependencias y asegura que la creación del entorno sea determinista." 135 | ] 136 | }, 137 | { 138 | "cell_type": "markdown", 139 | "metadata": {}, 140 | "source": [ 141 | "##### Ejercicio\n", 142 | "\n", 143 | "Crea una carpeta nueva y ejecuta `pipenv install` dentro. Examina la salida y compréndela." 144 | ] 145 | }, 146 | { 147 | "cell_type": "markdown", 148 | "metadata": {}, 149 | "source": [ 150 | "#### Ejecución dentro del entorno virtual\n", 151 | "\n", 152 | "Tenemos dos opciones para lanzar nuestros scripts de python dentro del entorno: `pipenv run` para un comando específico, o `pipenv shell` para activar una consola.\n", 153 | "\n", 154 | "Un ejemplo con `run`:\n", 155 | "\n", 156 | "```\n", 157 | "pipenv run python my_script.py\n", 158 | "```\n", 159 | "\n", 160 | "Y lo equivalente con `shell`:\n", 161 | "\n", 162 | "```\n", 163 | "pipenv shell\n", 164 | "python my_script.py\n", 165 | "exit\n", 166 | "```" 167 | ] 168 | }, 169 | { 170 | "cell_type": "markdown", 171 | "metadata": {}, 172 | "source": [ 173 | "#### Instalación de nuevas dependencias\n", 174 | "\n", 175 | "Para instalar nuevas dependencias, utilizaremos `pipenv` como si fuera `pip`.\n", 176 | "\n", 177 | "Por ejemplo, para instalar `pandas`:\n", 178 | "\n", 179 | "```\n", 180 | "pipenv install pandas\n", 181 | "```\n", 182 | "\n", 183 | "También podemos especificar dependencias que solo son necesarias en desarrollo con el flag `--dev`. Por ejemplo, para formateadores, utilidades de testing o similares.\n", 184 | "\n", 185 | "```\n", 186 | "pipenv install pandas --dev\n", 187 | "```" 188 | ] 189 | }, 190 | { 191 | "cell_type": "markdown", 192 | "metadata": {}, 193 | "source": [ 194 | "##### Ejercicio\n", 195 | "\n", 196 | "Crea dos carpetas nuevas, cada una con su propio entorno virtual. En una de ellas instala unos paquetes y en la otra, otros. Comprueba que desde el otro entorno virtual no están disponibles." 197 | ] 198 | }, 199 | { 200 | "cell_type": "markdown", 201 | "metadata": {}, 202 | "source": [ 203 | "#### Asociar un kernel de jupyter a un entorno de pipenv\n", 204 | "\n", 205 | "Un kernel de jupyter es el entorno donde ejecutar notebooks. Por defecto, tenemos algunos instalados por el sistema: uno de Python 3 y quizás otro de Python 2. Pero podemos crear kernels asociados a nuestros entornos de `pipenv` y que estén sincronizados con estos: si instalamos una nueva librería en el entorno de pipenv, estará disponible en los notebooks asociados a dicho kernel.\n", 206 | "\n", 207 | "Para crear un kernel de jupyter, tendrás que situarte en la raíz de tu proyecto (donde está el `Pipfile`) y lanzar:\n", 208 | "\n", 209 | "```\n", 210 | "# Abro una consola dentro del entorno de pipenv\n", 211 | "pipenv shell\n", 212 | "\n", 213 | "# Creo un kernel con nombre MI_PRUEBA_KERNEL_PIPENV\n", 214 | "python -m ipykernel install --user --name='MI_PRUEBA_KERNEL_PIPENV'\n", 215 | "\n", 216 | "# Salgo de la consola de pipenv\n", 217 | "exit\n", 218 | "```\n", 219 | "\n", 220 | "Una vez hecho esto, verás tu nuevo kernel en el menú de jupyter, en Kernel / Change Kernel / nombre_del_kernel . Si lo seleccionas, asociarás dicho notebook al kernel elegido." 221 | ] 222 | }, 223 | { 224 | "cell_type": "markdown", 225 | "metadata": {}, 226 | "source": [ 227 | "##### Ejercicio\n", 228 | "\n", 229 | "Crea un kernel en cada uno de los dos entornos del ejercicio previo, luego dos notebooks asociados uno al primero y otro al segundo, y prueba qu" 230 | ] 231 | }, 232 | { 233 | "cell_type": "markdown", 234 | "metadata": {}, 235 | "source": [ 236 | "### Opción 2: requirements.txt\n", 237 | "\n", 238 | "Esta opción es algo antigua, la describimos aquí por si te toca dar soporte a un proyecto que se gestionaba de esta forma y no admite actualización a `pipenv`.\n", 239 | "\n", 240 | "#### Creación del entorno virtual\n", 241 | "\n", 242 | "Solo hace falta hacerlo una vez, normalmente cuando creamos o clonamos el proyecto:\n", 243 | "\n", 244 | "```\n", 245 | "python3 -m venv env\n", 246 | "```\n", 247 | "\n", 248 | "Nos crea una carpeta `env/` en nuestro proyecto donde se guardarán todas las librerías. Si estamos en un repositorio de `git`, hay que incluir esta carpeta en el `.gitignore`.\n", 249 | "\n", 250 | "#### Activar y desactivar el entorno virtual\n", 251 | "\n", 252 | "Cuando nos pongamos a desarrollar, tendremos que activarlo. Esto implica una alteración de las rutas a `python` y las librerías del proyecto. Tendremos disponible lo instalado en `env/` en lugar de lo instalado de forma global.\n", 253 | "\n", 254 | "```\n", 255 | "source env/bin/activate\n", 256 | "```\n", 257 | "\n", 258 | "Para volver al entorno global del ordenador, desactivamos el entorno virtual:\n", 259 | "\n", 260 | "```\n", 261 | "deactivate\n", 262 | "```\n", 263 | "\n", 264 | "#### Instalación y actualización de dependencias\n", 265 | "\n", 266 | "_Nota_: estos pasos hay que hacerlos siempre con el entorno virtual activo.\n", 267 | "\n", 268 | "Para instalar las dependencias necesarias (p.e. tras clonar el proyecto por primera vez, o tras traernos código nuevo que incorpora nuevas dependencias, ...):\n", 269 | "\n", 270 | "```\n", 271 | "pip install -r requirements.txt\n", 272 | "```\n", 273 | "\n", 274 | "Y cada vez que instalamos o actualizamos una dependencia en nuestro proyecto (con `pip install ...`), debemos actualizar el listado de dependencias, guardado en `requirements.txt`. Para hacerlo:\n", 275 | "\n", 276 | "```\n", 277 | "pip freeze > requirements.txt\n", 278 | "```\n", 279 | "\n", 280 | "El fichero de `requirements.txt` tiene esta pinta:\n", 281 | "\n", 282 | "```\n", 283 | "nltk==3.4\n", 284 | "numpy==1.16.0\n", 285 | "pandas==0.24.0\n", 286 | "scikit-learn==0.20.2\n", 287 | "scipy==1.2.0\n", 288 | "```\n", 289 | "\n", 290 | "Puedes ver más sobre el formato que puede tener este fichero [aquí](https://pip.pypa.io/en/stable/user_guide/#requirements-files)." 291 | ] 292 | }, 293 | { 294 | "cell_type": "code", 295 | "execution_count": null, 296 | "metadata": {}, 297 | "outputs": [], 298 | "source": [] 299 | } 300 | ], 301 | "metadata": { 302 | "kernelspec": { 303 | "display_name": "libropython", 304 | "language": "python", 305 | "name": "libropython" 306 | }, 307 | "language_info": { 308 | "codemirror_mode": { 309 | "name": "ipython", 310 | "version": 3 311 | }, 312 | "file_extension": ".py", 313 | "mimetype": "text/x-python", 314 | "name": "python", 315 | "nbconvert_exporter": "python", 316 | "pygments_lexer": "ipython3", 317 | "version": "3.7.3" 318 | } 319 | }, 320 | "nbformat": 4, 321 | "nbformat_minor": 2 322 | } 323 | -------------------------------------------------------------------------------- /notebooks/dat/README.md: -------------------------------------------------------------------------------- 1 | # Fuentes de datos 2 | 3 | ## Precios de venta y alquiler históricos en Madrid 4 | 5 | Los 4 ficheros se han descargado de [idealista](https://www.idealista.com/informes-precio-vivienda) 6 | 7 | -------------------------------------------------------------------------------- /notebooks/dat/airquality.csv: -------------------------------------------------------------------------------- 1 | "ozone","wind","temp","month","day","solar_r" 2 | 41,7.4,67,5,1,190 3 | 36,8,72,5,2,118 4 | 12,12.6,74,5,3,149 5 | 18,11.5,62,5,4,313 6 | ,14.3,56,5,5, 7 | 28,14.9,66,5,6, 8 | 23,8.6,65,5,7,299 9 | 19,13.8,59,5,8,99 10 | 8,20.1,61,5,9,19 11 | ,8.6,69,5,10,194 12 | 7,6.9,74,5,11, 13 | 16,9.7,69,5,12,256 14 | 11,9.2,66,5,13,290 15 | 14,10.9,68,5,14,274 16 | 18,13.2,58,5,15,65 17 | 14,11.5,64,5,16,334 18 | 34,12,66,5,17,307 19 | 6,18.4,57,5,18,78 20 | 30,11.5,68,5,19,322 21 | 11,9.7,62,5,20,44 22 | 1,9.7,59,5,21,8 23 | 11,16.6,73,5,22,320 24 | 4,9.7,61,5,23,25 25 | 32,12,61,5,24,92 26 | ,16.6,57,5,25,66 27 | ,14.9,58,5,26,266 28 | ,8,57,5,27, 29 | 23,12,67,5,28,13 30 | 45,14.9,81,5,29,252 31 | 115,5.7,79,5,30,223 32 | 37,7.4,76,5,31,279 33 | ,8.6,78,6,1,286 34 | ,9.7,74,6,2,287 35 | ,16.1,67,6,3,242 36 | ,9.2,84,6,4,186 37 | ,8.6,85,6,5,220 38 | ,14.3,79,6,6,264 39 | 29,9.7,82,6,7,127 40 | ,6.9,87,6,8,273 41 | 71,13.8,90,6,9,291 42 | 39,11.5,87,6,10,323 43 | ,10.9,93,6,11,259 44 | ,9.2,92,6,12,250 45 | 23,8,82,6,13,148 46 | ,13.8,80,6,14,332 47 | ,11.5,79,6,15,322 48 | 21,14.9,77,6,16,191 49 | 37,20.7,72,6,17,284 50 | 20,9.2,65,6,18,37 51 | 12,11.5,73,6,19,120 52 | 13,10.3,76,6,20,137 53 | ,6.3,77,6,21,150 54 | ,1.7,76,6,22,59 55 | ,4.6,76,6,23,91 56 | ,6.3,76,6,24,250 57 | ,8,75,6,25,135 58 | ,8,78,6,26,127 59 | ,10.3,73,6,27,47 60 | ,11.5,80,6,28,98 61 | ,14.9,77,6,29,31 62 | ,8,83,6,30,138 63 | 135,4.1,84,7,1,269 64 | 49,9.2,85,7,2,248 65 | 32,9.2,81,7,3,236 66 | ,10.9,84,7,4,101 67 | 64,4.6,83,7,5,175 68 | 40,10.9,83,7,6,314 69 | 77,5.1,88,7,7,276 70 | 97,6.3,92,7,8,267 71 | 97,5.7,92,7,9,272 72 | 85,7.4,89,7,10,175 73 | ,8.6,82,7,11,139 74 | 10,14.3,73,7,12,264 75 | 27,14.9,81,7,13,175 76 | ,14.9,91,7,14,291 77 | 7,14.3,80,7,15,48 78 | 48,6.9,81,7,16,260 79 | 35,10.3,82,7,17,274 80 | 61,6.3,84,7,18,285 81 | 79,5.1,87,7,19,187 82 | 63,11.5,85,7,20,220 83 | 16,6.9,74,7,21,7 84 | ,9.7,81,7,22,258 85 | ,11.5,82,7,23,295 86 | 80,8.6,86,7,24,294 87 | 108,8,85,7,25,223 88 | 20,8.6,82,7,26,81 89 | 52,12,86,7,27,82 90 | 82,7.4,88,7,28,213 91 | 50,7.4,86,7,29,275 92 | 64,7.4,83,7,30,253 93 | 59,9.2,81,7,31,254 94 | 39,6.9,81,8,1,83 95 | 9,13.8,81,8,2,24 96 | 16,7.4,82,8,3,77 97 | 78,6.9,86,8,4, 98 | 35,7.4,85,8,5, 99 | 66,4.6,87,8,6, 100 | 122,4,89,8,7,255 101 | 89,10.3,90,8,8,229 102 | 110,8,90,8,9,207 103 | ,8.6,92,8,10,222 104 | ,11.5,86,8,11,137 105 | 44,11.5,86,8,12,192 106 | 28,11.5,82,8,13,273 107 | 65,9.7,80,8,14,157 108 | ,11.5,79,8,15,64 109 | 22,10.3,77,8,16,71 110 | 59,6.3,79,8,17,51 111 | 23,7.4,76,8,18,115 112 | 31,10.9,78,8,19,244 113 | 44,10.3,78,8,20,190 114 | 21,15.5,77,8,21,259 115 | 9,14.3,72,8,22,36 116 | ,12.6,75,8,23,255 117 | 45,9.7,79,8,24,212 118 | 168,3.4,81,8,25,238 119 | 73,8,86,8,26,215 120 | ,5.7,88,8,27,153 121 | 76,9.7,97,8,28,203 122 | 118,2.3,94,8,29,225 123 | 84,6.3,96,8,30,237 124 | 85,6.3,94,8,31,188 125 | 96,6.9,91,9,1,167 126 | 78,5.1,92,9,2,197 127 | 73,2.8,93,9,3,183 128 | 91,4.6,93,9,4,189 129 | 47,7.4,87,9,5,95 130 | 32,15.5,84,9,6,92 131 | 20,10.9,80,9,7,252 132 | 23,10.3,78,9,8,220 133 | 21,10.9,75,9,9,230 134 | 24,9.7,73,9,10,259 135 | 44,14.9,81,9,11,236 136 | 21,15.5,76,9,12,259 137 | 28,6.3,77,9,13,238 138 | 9,10.9,71,9,14,24 139 | 13,11.5,71,9,15,112 140 | 46,6.9,78,9,16,237 141 | 18,13.8,67,9,17,224 142 | 13,10.3,76,9,18,27 143 | 24,10.3,68,9,19,238 144 | 16,8,82,9,20,201 145 | 13,12.6,64,9,21,238 146 | 23,9.2,71,9,22,14 147 | 36,10.3,81,9,23,139 148 | 7,10.3,69,9,24,49 149 | 14,16.6,63,9,25,20 150 | 30,6.9,70,9,26,193 151 | ,13.2,77,9,27,145 152 | 14,14.3,75,9,28,191 153 | 18,8,76,9,29,131 154 | 20,11.5,68,9,30,223 155 | -------------------------------------------------------------------------------- /notebooks/dat/economist-countries-data.csv: -------------------------------------------------------------------------------- 1 | "","Country","HDI.Rank","HDI","CPI","Region" 2 | "1","Afghanistan",172,0.398,1.5,"Asia Pacific" 3 | "2","Albania",70,0.739,3.1,"East EU Cemt Asia" 4 | "3","Algeria",96,0.698,2.9,"MENA" 5 | "4","Angola",148,0.486,2,"SSA" 6 | "5","Argentina",45,0.797,3,"Americas" 7 | "6","Armenia",86,0.716,2.6,"East EU Cemt Asia" 8 | "7","Australia",2,0.929,8.8,"Asia Pacific" 9 | "8","Austria",19,0.885,7.8,"EU W. Europe" 10 | "9","Azerbaijan",91,0.7,2.4,"East EU Cemt Asia" 11 | "10","Bahamas",53,0.771,7.3,"Americas" 12 | "11","Bahrain",42,0.806,5.1,"MENA" 13 | "12","Bangladesh",146,0.5,2.7,"Asia Pacific" 14 | "13","Barbados",47,0.793,7.8,"Americas" 15 | "14","Belarus",65,0.756,2.4,"East EU Cemt Asia" 16 | "15","Belgium",18,0.886,7.5,"EU W. Europe" 17 | "16","Benin",167,0.427,3,"SSA" 18 | "17","Bhutan",141,0.522,5.7,"Asia Pacific" 19 | "18","Bolivia",108,0.663,2.8,"Americas" 20 | "19","Bosnia and Herzegovina",74,0.733,3.2,"East EU Cemt Asia" 21 | "20","Botswana",118,0.633,6.1,"SSA" 22 | "21","Brazil",84,0.718,3.8,"Americas" 23 | "22","Britain",28,0.863,7.8,"EU W. Europe" 24 | "23","Bulgaria",55,0.771,3.3,"EU W. Europe" 25 | "24","Burkina Faso",181,0.331,3,"SSA" 26 | "25","Burundi",185,0.316,1.9,"SSA" 27 | "26","Cambodia",139,0.523,2.1,"Asia Pacific" 28 | "27","Cameroon",150,0.482,2.5,"SSA" 29 | "28","Canada",6,0.908,8.7,"Americas" 30 | "29","Cape Verde",133,0.568,5.5,"SSA" 31 | "30","Central African Republic",179,0.343,2.2,"SSA" 32 | "31","Chad",183,0.328,2,"SSA" 33 | "32","Chile",44,0.805,7.2,"Americas" 34 | "33","China",101,0.687,3.6,"Asia Pacific" 35 | "34","Colombia",87,0.71,3.4,"Americas" 36 | "35","Comoros",163,0.433,2.4,"SSA" 37 | "36","Congo",187,0.286,2,"SSA" 38 | "37","Congo Republic",137,0.533,2.2,"SSA" 39 | "38","Costa Rica",69,0.744,4.8,"Americas" 40 | "39","Côte d'Ivoire",170,0.4,2.2,"SSA" 41 | "40","Croatia",46,0.796,4,"East EU Cemt Asia" 42 | "41","Cuba",51,0.776,4.2,"Americas" 43 | "42","Cyprus",31,0.84,6.3,"EU W. Europe" 44 | "43","Czech Republic",27,0.865,4.4,"EU W. Europe" 45 | "44","Denmark",16,0.895,9.4,"EU W. Europe" 46 | "45","Djibouti",165,0.43,3,"SSA" 47 | "46","Dominica",81,0.724,5.2,"Americas" 48 | "47","Dominican Republic",98,0.689,2.6,"Americas" 49 | "48","Ecuador",83,0.72,2.7,"Americas" 50 | "49","Egypt",113,0.644,2.9,"MENA" 51 | "50","El Salvador",105,0.674,3.4,"Americas" 52 | "51","Equatorial Guinea",136,0.537,1.9,"SSA" 53 | "52","Eritrea",177,0.349,2.5,"SSA" 54 | "53","Estonia",34,0.835,6.4,"EU W. Europe" 55 | "54","Ethiopia",174,0.363,2.7,"SSA" 56 | "55","Finland",22,0.882,9.4,"EU W. Europe" 57 | "56","France",20,0.884,7,"EU W. Europe" 58 | "57","Gabon",106,0.674,3,"SSA" 59 | "58","Gambia",168,0.42,3.5,"SSA" 60 | "59","Georgia",75,0.733,4.1,"East EU Cemt Asia" 61 | "60","Germany",9,0.905,8,"EU W. Europe" 62 | "61","Ghana",135,0.541,3.9,"SSA" 63 | "62","Greece",29,0.861,3.4,"EU W. Europe" 64 | "63","Guatemala",131,0.574,2.7,"Americas" 65 | "64","Guinea",178,0.344,2.1,"SSA" 66 | "65","Guinea-Bissau",176,0.353,2.2,"SSA" 67 | "66","Guyana",117,0.633,2.5,"Americas" 68 | "67","Haiti",158,0.454,1.8,"Americas" 69 | "68","Honduras",121,0.625,2.6,"Americas" 70 | "69","Hong Kong",13,0.898,8.4,"Asia Pacific" 71 | "70","Hungary",38,0.816,4.6,"EU W. Europe" 72 | "71","Iceland",14,0.898,8.3,"EU W. Europe" 73 | "72","India",134,0.547,3.1,"Asia Pacific" 74 | "73","Indonesia",124,0.617,3,"Asia Pacific" 75 | "74","Iran",88,0.707,2.7,"MENA" 76 | "75","Iraq",132,0.573,1.8,"MENA" 77 | "76","Ireland",7,0.908,7.5,"EU W. Europe" 78 | "77","Israel",17,0.888,5.8,"MENA" 79 | "78","Italy",24,0.874,3.9,"EU W. Europe" 80 | "79","Jamaica",79,0.727,3.3,"Americas" 81 | "80","Japan",12,0.901,8,"Asia Pacific" 82 | "81","Jordan",95,0.698,4.5,"MENA" 83 | "82","Kazakhstan",68,0.745,2.7,"East EU Cemt Asia" 84 | "83","Kenya",143,0.509,2.2,"SSA" 85 | "84","Kiribati",122,0.624,3.1,"Asia Pacific" 86 | "85","Korea (South)",15,0.897,5.4,"Asia Pacific" 87 | "86","Kuwait",63,0.76,4.6,"MENA" 88 | "87","Kyrgyzstan",126,0.615,2.1,"East EU Cemt Asia" 89 | "88","Laos",138,0.524,2.2,"Asia Pacific" 90 | "89","Latvia",43,0.805,4.2,"EU W. Europe" 91 | "90","Lebanon",71,0.739,2.5,"MENA" 92 | "91","Lesotho",160,0.45,3.5,"SSA" 93 | "92","Liberia",182,0.329,3.2,"SSA" 94 | "93","Libya",64,0.76,2,"MENA" 95 | "94","Lithuania",40,0.81,4.8,"EU W. Europe" 96 | "95","Luxembourg",25,0.867,8.5,"EU W. Europe" 97 | "96","Madagascar",151,0.48,3,"SSA" 98 | "97","Malawi",171,0.4,3,"SSA" 99 | "98","Malaysia",61,0.761,4.3,"Asia Pacific" 100 | "99","Maldives",109,0.661,2.5,"Asia Pacific" 101 | "100","Mali",175,0.359,2.8,"SSA" 102 | "101","Malta",36,0.832,5.6,"EU W. Europe" 103 | "102","Mauritania",159,0.453,2.4,"SSA" 104 | "103","Mauritius",77,0.728,5.1,"SSA" 105 | "104","Mexico",57,0.77,3,"Americas" 106 | "105","Moldova",111,0.649,2.9,"East EU Cemt Asia" 107 | "106","Mongolia",110,0.653,2.7,"Asia Pacific" 108 | "107","Montenegro",54,0.771,4,"East EU Cemt Asia" 109 | "108","Morocco",130,0.582,3.4,"MENA" 110 | "109","Mozambique",184,0.322,2.7,"SSA" 111 | "110","Myanmar",149,0.483,1.5,"Asia Pacific" 112 | "111","Namibia",120,0.625,4.4,"SSA" 113 | "112","Nepal",157,0.458,2.2,"Asia Pacific" 114 | "113","Netherlands",3,0.91,8.9,"EU W. Europe" 115 | "114","New Zealand",5,0.908,9.5,"Asia Pacific" 116 | "115","Nicaragua",129,0.589,2.5,"Americas" 117 | "116","Niger",186,0.295,2.5,"SSA" 118 | "117","Nigeria",156,0.459,2.4,"SSA" 119 | "118","Norway",1,0.943,9,"EU W. Europe" 120 | "119","Oman",89,0.705,4.8,"MENA" 121 | "120","Pakistan",145,0.504,2.5,"Asia Pacific" 122 | "121","Panama",58,0.768,3.3,"Americas" 123 | "122","Papua New Guinea",153,0.466,2.2,"Asia Pacific" 124 | "123","Paraguay",107,0.665,2.2,"Americas" 125 | "124","Peru",80,0.725,3.4,"Americas" 126 | "125","Philippines",112,0.644,2.6,"Asia Pacific" 127 | "126","Poland",39,0.813,5.5,"EU W. Europe" 128 | "127","Portugal",41,0.809,6.1,"EU W. Europe" 129 | "128","Qatar",37,0.831,7.2,"MENA" 130 | "129","Romania",50,0.781,3.6,"EU W. Europe" 131 | "130","Russia",66,0.755,2.4,"East EU Cemt Asia" 132 | "131","Rwanda",166,0.429,5,"SSA" 133 | "132","Saint Lucia",82,0.723,7,"Americas" 134 | "133","Saint Vincent and the Grenadines",85,0.717,5.8,"Americas" 135 | "134","Samoa",99,0.688,3.9,"Asia Pacific" 136 | "135","Saudi Arabia",56,0.77,4.4,"MENA" 137 | "136","Senegal",155,0.459,2.9,"SSA" 138 | "137","Serbia",59,0.766,3.3,"East EU Cemt Asia" 139 | "138","Seychelles",52,0.773,4.8,"SSA" 140 | "139","Sierra Leone",180,0.336,2.5,"SSA" 141 | "140","Singapore",26,0.866,9.2,"Asia Pacific" 142 | "141","Slovakia",35,0.834,4,"EU W. Europe" 143 | "142","Slovenia",21,0.884,5.9,"EU W. Europe" 144 | "143","Solomon Islands",142,0.51,2.7,"Asia Pacific" 145 | "144","South Africa",123,0.619,4.1,"SSA" 146 | "145","Spain",23,0.878,6.2,"EU W. Europe" 147 | "146","Sri Lanka",97,0.691,3.3,"Asia Pacific" 148 | "147","Sudan",169,0.408,1.6,"SSA" 149 | "148","Suriname",104,0.68,3,"Americas" 150 | "149","Swaziland",140,0.522,3.1,"SSA" 151 | "150","Sweden",10,0.904,9.3,"EU W. Europe" 152 | "151","Switzerland",11,0.903,8.8,"EU W. Europe" 153 | "152","Syria",119,0.632,2.6,"MENA" 154 | "153","Tajikistan",127,0.607,2.3,"East EU Cemt Asia" 155 | "154","Tanzania",152,0.466,3,"SSA" 156 | "155","Thailand",103,0.682,3.4,"Asia Pacific" 157 | "156","Timor-Leste",147,0.495,2.4,"Asia Pacific" 158 | "157","Togo",162,0.435,2.4,"SSA" 159 | "158","Tonga",90,0.704,3.1,"Asia Pacific" 160 | "159","Trinidad and Tobago",62,0.76,3.2,"Americas" 161 | "160","Tunisia",94,0.698,3.8,"MENA" 162 | "161","Turkey",92,0.699,4.2,"East EU Cemt Asia" 163 | "162","Turkmenistan",102,0.686,1.6,"East EU Cemt Asia" 164 | "163","Uganda",161,0.446,2.4,"SSA" 165 | "164","Ukraine",76,0.729,2.3,"East EU Cemt Asia" 166 | "165","United Arab Emirates",30,0.846,6.8,"MENA" 167 | "166","United States",4,0.91,7.1,"Americas" 168 | "167","Uruguay",48,0.783,7,"Americas" 169 | "168","Uzbekistan",115,0.641,1.6,"East EU Cemt Asia" 170 | "169","Vanuatu",125,0.617,3.5,"Asia Pacific" 171 | "170","Venezuela",73,0.735,1.9,"Americas" 172 | "171","Yemen",154,0.462,2.1,"MENA" 173 | "172","Zambia",164,0.43,3.2,"SSA" 174 | "173","Zimbabwe",173,0.376,2.2,"SSA" 175 | -------------------------------------------------------------------------------- /notebooks/dat/neighbourhoods.csv: -------------------------------------------------------------------------------- 1 | neighbourhood_group,neighbourhood 2 | Arganzuela,Acacias 3 | Arganzuela,Atocha 4 | Arganzuela,Chopera 5 | Arganzuela,Delicias 6 | Arganzuela,Imperial 7 | Arganzuela,Legazpi 8 | Arganzuela,Palos de Moguer 9 | Barajas,Aeropuerto 10 | Barajas,Alameda de Osuna 11 | Barajas,Casco Histórico de Barajas 12 | Barajas,Corralejos 13 | Barajas,Timón 14 | Carabanchel,Abrantes 15 | Carabanchel,Buenavista 16 | Carabanchel,Comillas 17 | Carabanchel,Opañel 18 | Carabanchel,Puerta Bonita 19 | Carabanchel,San Isidro 20 | Carabanchel,Vista Alegre 21 | Centro,Cortes 22 | Centro,Embajadores 23 | Centro,Justicia 24 | Centro,Palacio 25 | Centro,Sol 26 | Centro,Universidad 27 | Chamartín,Castilla 28 | Chamartín,Ciudad Jardín 29 | Chamartín,El Viso 30 | Chamartín,Hispanoamérica 31 | Chamartín,Nueva España 32 | Chamartín,Prosperidad 33 | Chamberí,Almagro 34 | Chamberí,Arapiles 35 | Chamberí,Gaztambide 36 | Chamberí,Rios Rosas 37 | Chamberí,Trafalgar 38 | Chamberí,Vallehermoso 39 | Ciudad Lineal,Atalaya 40 | Ciudad Lineal,Colina 41 | Ciudad Lineal,Concepción 42 | Ciudad Lineal,Costillares 43 | Ciudad Lineal,Pueblo Nuevo 44 | Ciudad Lineal,Quintana 45 | Ciudad Lineal,San Juan Bautista 46 | Ciudad Lineal,San Pascual 47 | Ciudad Lineal,Ventas 48 | Fuencarral - El Pardo,El Goloso 49 | Fuencarral - El Pardo,El Pardo 50 | Fuencarral - El Pardo,Fuentelareina 51 | Fuencarral - El Pardo,La Paz 52 | Fuencarral - El Pardo,Mirasierra 53 | Fuencarral - El Pardo,Peñagrande 54 | Fuencarral - El Pardo,Pilar 55 | Fuencarral - El Pardo,Valverde 56 | Hortaleza,Apostol Santiago 57 | Hortaleza,Canillas 58 | Hortaleza,Palomas 59 | Hortaleza,Pinar del Rey 60 | Hortaleza,Piovera 61 | Hortaleza,Valdefuentes 62 | Latina,Aguilas 63 | Latina,Aluche 64 | Latina,Campamento 65 | Latina,Cármenes 66 | Latina,Cuatro Vientos 67 | Latina,Lucero 68 | Latina,Puerta del Angel 69 | Moncloa - Aravaca,Aravaca 70 | Moncloa - Aravaca,Argüelles 71 | Moncloa - Aravaca,Casa de Campo 72 | Moncloa - Aravaca,Ciudad Universitaria 73 | Moncloa - Aravaca,El Plantío 74 | Moncloa - Aravaca,Valdemarín 75 | Moncloa - Aravaca,Valdezarza 76 | Moratalaz,Fontarrón 77 | Moratalaz,Horcajo 78 | Moratalaz,Marroquina 79 | Moratalaz,Media Legua 80 | Moratalaz,Pavones 81 | Moratalaz,Vinateros 82 | Puente de Vallecas,Entrevías 83 | Puente de Vallecas,Numancia 84 | Puente de Vallecas,Palomeras Bajas 85 | Puente de Vallecas,Palomeras Sureste 86 | Puente de Vallecas,Portazgo 87 | Puente de Vallecas,San Diego 88 | Retiro,Adelfas 89 | Retiro,Estrella 90 | Retiro,Ibiza 91 | Retiro,Jerónimos 92 | Retiro,Niño Jesús 93 | Retiro,Pacífico 94 | Salamanca,Castellana 95 | Salamanca,Fuente del Berro 96 | Salamanca,Goya 97 | Salamanca,Guindalera 98 | Salamanca,Lista 99 | Salamanca,Recoletos 100 | San Blas - Canillejas,Amposta 101 | San Blas - Canillejas,Arcos 102 | San Blas - Canillejas,Canillejas 103 | San Blas - Canillejas,Hellín 104 | San Blas - Canillejas,Rejas 105 | San Blas - Canillejas,Rosas 106 | San Blas - Canillejas,Salvador 107 | San Blas - Canillejas,Simancas 108 | Tetuán,Almenara 109 | Tetuán,Bellas Vistas 110 | Tetuán,Berruguete 111 | Tetuán,Castillejos 112 | Tetuán,Cuatro Caminos 113 | Tetuán,Valdeacederas 114 | Usera,Almendrales 115 | Usera,Moscardó 116 | Usera,Orcasitas 117 | Usera,Orcasur 118 | Usera,Pradolongo 119 | Usera,San Fermín 120 | Usera,Zofío 121 | Vicálvaro,Ambroz 122 | Vicálvaro,Casco Histórico de Vicálvaro 123 | Villa de Vallecas,Casco Histórico de Vallecas 124 | Villa de Vallecas,Santa Eugenia 125 | Villaverde,Butarque 126 | Villaverde,Los Angeles 127 | Villaverde,Los Rosales 128 | Villaverde,San Andrés 129 | Villaverde,San Cristobal 130 | -------------------------------------------------------------------------------- /notebooks/soluciones/02_pandas.ipynb: -------------------------------------------------------------------------------- 1 | { 2 | "cells": [ 3 | { 4 | "cell_type": "code", 5 | "execution_count": null, 6 | "metadata": {}, 7 | "outputs": [], 8 | "source": [ 9 | "# Ponemos como ruta principal la carpeta padre de \"soluciones\"\n", 10 | "# para que las rutas relativas queden igual que en la carpeta de notebooks\n", 11 | "import paths\n", 12 | "\n", 13 | "# Otras dependencias\n", 14 | "import pandas as pd" 15 | ] 16 | }, 17 | { 18 | "cell_type": "markdown", 19 | "metadata": {}, 20 | "source": [ 21 | "### Ejercicio\n", 22 | "\n", 23 | "* Carga en un dataframe de pandas el csv `dat/alquiler-madrid-municipios.csv` en una variable que se llame `alquiler_municipios`\n", 24 | "* Examina las primeras y últimas filas\n", 25 | "* Extrae el número de filas y columnas" 26 | ] 27 | }, 28 | { 29 | "cell_type": "code", 30 | "execution_count": null, 31 | "metadata": {}, 32 | "outputs": [], 33 | "source": [ 34 | "# Lectura en un dataframe del fichero CSV\n", 35 | "alquiler_municipios = pd.read_csv(\"dat/alquiler-madrid-distritos.csv\")\n", 36 | "\n", 37 | "# Examino las primeras filas\n", 38 | "alquiler_municipios.head()" 39 | ] 40 | }, 41 | { 42 | "cell_type": "code", 43 | "execution_count": null, 44 | "metadata": {}, 45 | "outputs": [], 46 | "source": [ 47 | "# Examino las últimas filas\n", 48 | "alquiler_municipios.tail()" 49 | ] 50 | }, 51 | { 52 | "cell_type": "code", 53 | "execution_count": null, 54 | "metadata": {}, 55 | "outputs": [], 56 | "source": [ 57 | "# Extraigo el número de filas y columnas: (filas, columnas)\n", 58 | "alquiler_municipios.shape" 59 | ] 60 | }, 61 | { 62 | "cell_type": "markdown", 63 | "metadata": {}, 64 | "source": [ 65 | "#### Ejercicio\n", 66 | "\n", 67 | "* Muestra las primeras 5 filas usando `iloc`\n", 68 | "* Muestra las últimas 5 filas usando `iloc`" 69 | ] 70 | }, 71 | { 72 | "cell_type": "code", 73 | "execution_count": null, 74 | "metadata": {}, 75 | "outputs": [], 76 | "source": [ 77 | "alquiler_municipios.iloc[0:5]" 78 | ] 79 | }, 80 | { 81 | "cell_type": "code", 82 | "execution_count": null, 83 | "metadata": {}, 84 | "outputs": [], 85 | "source": [ 86 | "alquiler_municipios.iloc[-5:]" 87 | ] 88 | }, 89 | { 90 | "cell_type": "markdown", 91 | "metadata": {}, 92 | "source": [ 93 | "#### Ejercicio\n", 94 | "\n", 95 | "Muestra sobre `alquiler_nuevo_indice` las filas para distrito `Retiro` y año 2012." 96 | ] 97 | }, 98 | { 99 | "cell_type": "code", 100 | "execution_count": null, 101 | "metadata": {}, 102 | "outputs": [], 103 | "source": [ 104 | "alquiler_nuevo_indice = alquiler_municipios.set_index(['distrito', 'ano', 'quarter']).sort_index()" 105 | ] 106 | }, 107 | { 108 | "cell_type": "code", 109 | "execution_count": null, 110 | "metadata": {}, 111 | "outputs": [], 112 | "source": [ 113 | "alquiler_nuevo_indice.loc[('Retiro', 2012)]" 114 | ] 115 | }, 116 | { 117 | "cell_type": "markdown", 118 | "metadata": {}, 119 | "source": [ 120 | "#### Ejercicio\n", 121 | "\n", 122 | "Extrae los nombres de los distritos cuyo precio por metro cuadrado es superior a 15€ en el año y trimestre más reciente del que tenemos datos (míralo imprimiento las últimas filas de la tabla)." 123 | ] 124 | }, 125 | { 126 | "cell_type": "code", 127 | "execution_count": null, 128 | "metadata": {}, 129 | "outputs": [], 130 | "source": [ 131 | "# 1. Imprime las últimas filas de la tabla\n", 132 | "alquiler_municipios.tail()" 133 | ] 134 | }, 135 | { 136 | "cell_type": "code", 137 | "execution_count": null, 138 | "metadata": {}, 139 | "outputs": [], 140 | "source": [ 141 | "# 2. Haz el filtro. Una vez hecho, saca solo la columna distrito\n", 142 | "filtro_ultimos_datos = alquiler_municipios[(alquiler_municipios.precio >= 15)&(alquiler_municipios.quarter == 2)&(alquiler_municipios.ano == 2018)]" 143 | ] 144 | }, 145 | { 146 | "cell_type": "code", 147 | "execution_count": null, 148 | "metadata": {}, 149 | "outputs": [], 150 | "source": [ 151 | "filtro_ultimos_datos" 152 | ] 153 | }, 154 | { 155 | "cell_type": "code", 156 | "execution_count": null, 157 | "metadata": {}, 158 | "outputs": [], 159 | "source": [ 160 | "filtro_ultimos_datos['distrito']" 161 | ] 162 | }, 163 | { 164 | "cell_type": "markdown", 165 | "metadata": {}, 166 | "source": [ 167 | "#### Ejercicio\n", 168 | "\n", 169 | "Extrae de mayor a menor por precio las filas de la tabla para Tetuán a partir del año 2017." 170 | ] 171 | }, 172 | { 173 | "cell_type": "code", 174 | "execution_count": null, 175 | "metadata": {}, 176 | "outputs": [], 177 | "source": [ 178 | "#Generamos el filtro para recoger los datos de Tetúan a partir del 2017\n", 179 | "filtro_tetuan = alquiler_municipios[(alquiler_municipios.distrito == 'Tetuan')&(alquiler_municipios.ano >= 2017)]\n", 180 | "#Ordenadamos de mayor a menor por precio las filas filtradas\n", 181 | "filtro_tetuan.sort_values(['precio'], ascending=False)" 182 | ] 183 | }, 184 | { 185 | "cell_type": "markdown", 186 | "metadata": {}, 187 | "source": [ 188 | "#### Ejercicio\n", 189 | "\n", 190 | "Crea una nueva columna `precio_120m` sobre `alquiler_2` que represente el precio de 120 metros cuadrados, pero utilizando `apply` y una función `lambda`." 191 | ] 192 | }, 193 | { 194 | "cell_type": "code", 195 | "execution_count": null, 196 | "metadata": {}, 197 | "outputs": [], 198 | "source": [ 199 | "#Hacemos una copia de los datos\n", 200 | "alquiler_2 = alquiler_municipios.copy()\n", 201 | "#Generamos la nueva columna con el precio total de 120m cuadrados\n", 202 | "alquiler_2['precio_120m'] = alquiler_2.apply(lambda fila: fila.precio * 120, axis=1)\n", 203 | "#Comprobamos el resultado con las primeras filas\n", 204 | "alquiler_2.head()" 205 | ] 206 | }, 207 | { 208 | "cell_type": "markdown", 209 | "metadata": {}, 210 | "source": [ 211 | "#### Ejercicio\n", 212 | "\n", 213 | "Extrae los cuantiles 0.1 y 0.9 del precio para el distrito `Tetuan`." 214 | ] 215 | }, 216 | { 217 | "cell_type": "code", 218 | "execution_count": null, 219 | "metadata": {}, 220 | "outputs": [], 221 | "source": [ 222 | "#Generamos el filtro de los precios de Tetúan\n", 223 | "filtro_tetuan = alquiler_municipios[(alquiler_municipios.distrito == 'Tetuan')]\n", 224 | "#Extraemos los cuantiles 0.1 y 0.9\n", 225 | "filtro_tetuan[['precio']].quantile([.1, .9])" 226 | ] 227 | }, 228 | { 229 | "cell_type": "markdown", 230 | "metadata": {}, 231 | "source": [ 232 | "#### Ejercicio\n", 233 | "\n", 234 | "Extrae el precio máximo histórico para cada distrito a partir del 2010" 235 | ] 236 | }, 237 | { 238 | "cell_type": "code", 239 | "execution_count": null, 240 | "metadata": {}, 241 | "outputs": [], 242 | "source": [ 243 | "filtro_ano = alquiler_municipios[(alquiler_municipios.ano >= 2010)] \n", 244 | "filtro_ano.groupby('distrito').precio.max()" 245 | ] 246 | }, 247 | { 248 | "cell_type": "markdown", 249 | "metadata": {}, 250 | "source": [ 251 | "#### Ejercicio\n", 252 | "\n", 253 | "* Carga en un DataFrame el CSV `dat/venta-madrid-distritos.csv`\n", 254 | "* Crúzalo con el que ya tenemos de alquiler. El objetivo es tener, para cada distrito, año y cuatrimestre, tanto el precio de alquiler como el de venta del metro cuadrado. Para saber cómo poner sufijos a las columnas que colisionan en el cruce, mira la documentación de `merge`.\n", 255 | "* Extrae los precios medios de venta y alquiler por distrito para todo el histórico\n", 256 | "* Extrae, para el año y cuatrimestre más reciente del que haya datos, el distrito donde es más rentable comprar una vivienda para destinarla a alquiler. Es decir, con el ratio precio alquiler / precio venta más alto." 257 | ] 258 | }, 259 | { 260 | "cell_type": "code", 261 | "execution_count": null, 262 | "metadata": {}, 263 | "outputs": [], 264 | "source": [ 265 | "#Cargamos el data frame \n", 266 | "venta_madrid_distritos = pd.read_csv(\"dat/venta-madrid-distritos.csv\")\n", 267 | "#Mergeamos los datos\n", 268 | "datos_totales = pd.merge(alquiler_municipios, venta_madrid_distritos, how='inner', on=['distrito', 'ano', 'quarter'])\n", 269 | "#Extraemos los precios medios de venta y alquiler\n", 270 | "datos_totales.groupby('distrito').agg({'precio_x': ['mean'], 'precio_y': ['mean']}).head()" 271 | ] 272 | }, 273 | { 274 | "cell_type": "code", 275 | "execution_count": null, 276 | "metadata": {}, 277 | "outputs": [], 278 | "source": [ 279 | "#Extraemos el ratio precio alquiler/precio venta más alto\n", 280 | "#Generamos la columna con todos los ratios\n", 281 | "datos_totales[\"ratio precio alq/vent\"] = datos_totales[\"precio_x\"]/ datos_totales[\"precio_y\"]\n", 282 | "#Buscamos el año y cuatrimestre más reciente\n", 283 | "datos_totales.tail().iloc[0:5]\n", 284 | "#Hacemos un filtro con los datos del año y cuatrimestre más reciente\n", 285 | "datos_filtrados_totales = datos_totales[(datos_totales.ano == 2018)&(datos_totales.quarter == 2)] \n", 286 | "#Extraemos el distrito más rentable\n", 287 | "datos_filtrados_totales.loc[datos_filtrados_totales['ratio precio alq/vent'].idxmax()]" 288 | ] 289 | }, 290 | { 291 | "cell_type": "code", 292 | "execution_count": null, 293 | "metadata": {}, 294 | "outputs": [], 295 | "source": [] 296 | } 297 | ], 298 | "metadata": { 299 | "kernelspec": { 300 | "display_name": "Python 3", 301 | "language": "python", 302 | "name": "python3" 303 | }, 304 | "language_info": { 305 | "codemirror_mode": { 306 | "name": "ipython", 307 | "version": 3 308 | }, 309 | "file_extension": ".py", 310 | "mimetype": "text/x-python", 311 | "name": "python", 312 | "nbconvert_exporter": "python", 313 | "pygments_lexer": "ipython3", 314 | "version": "3.7.2" 315 | } 316 | }, 317 | "nbformat": 4, 318 | "nbformat_minor": 4 319 | } 320 | -------------------------------------------------------------------------------- /notebooks/soluciones/05_web_scraping.ipynb: -------------------------------------------------------------------------------- 1 | { 2 | "cells": [ 3 | { 4 | "cell_type": "code", 5 | "execution_count": null, 6 | "metadata": {}, 7 | "outputs": [], 8 | "source": [ 9 | "# Ponemos como ruta principal la carpeta padre de \"soluciones\"\n", 10 | "# para que las rutas relativas queden igual que en la carpeta de notebooks\n", 11 | "import paths\n", 12 | "\n", 13 | "# Otras dependencias\n", 14 | "import requests\n", 15 | "from bs4 import BeautifulSoup\n", 16 | "import re\n", 17 | "import pandas as pd" 18 | ] 19 | }, 20 | { 21 | "cell_type": "markdown", 22 | "metadata": {}, 23 | "source": [ 24 | "#### SOS: ¡me han baneado!\n", 25 | "\n", 26 | "Opción de usar el html offline que hay en `dat` para seguir con el ejercicio. Descomenta el siguiente código y sigue adelante" 27 | ] 28 | }, 29 | { 30 | "cell_type": "code", 31 | "execution_count": null, 32 | "metadata": {}, 33 | "outputs": [], 34 | "source": [ 35 | "# Descomenta esto si te han baneado\n", 36 | "# with open('dat/milanuncios.html') as f:\n", 37 | "# soup = BeautifulSoup(f, 'html.parser')" 38 | ] 39 | }, 40 | { 41 | "cell_type": "markdown", 42 | "metadata": {}, 43 | "source": [ 44 | "### Ejercicio\n", 45 | "\n", 46 | "Crea un dataframe de pandas en el que cada fila sea un anuncio y tenga como columnas información que consideres relevante: precio, kilómetros, año, cilindrada, texto del anuncio, ..." 47 | ] 48 | }, 49 | { 50 | "cell_type": "code", 51 | "execution_count": null, 52 | "metadata": {}, 53 | "outputs": [], 54 | "source": [ 55 | "headers = {\n", 56 | " 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36'\n", 57 | "}\n", 58 | "\n", 59 | "page = requests.get('https://www.milanuncios.com/motos-de-carretera/duke-390.htm', headers=headers)\n", 60 | "soup = BeautifulSoup(page.content, 'html.parser')\n", 61 | "\n", 62 | "columns = ['producto','tipo_anuncio','precio','texto','cc','ano','kms']\n", 63 | "\n", 64 | "df = pd.DataFrame(columns=columns)\n", 65 | "\n", 66 | "for link in soup.find_all('div', class_='aditem ParticularCardTestABClass'):\n", 67 | " producto = link.find('a', class_='aditem-detail-title').get_text()\n", 68 | " tipo_anuncio = link.find('div', class_='x3').get_text()\n", 69 | " if link.find('div', class_='aditem-price') is None:\n", 70 | " precio = 0\n", 71 | " else:\n", 72 | " precio = link.find('div', class_='aditem-price').get_text().replace('€','')\n", 73 | " texto = link.find('div', class_='tx').get_text()\n", 74 | " if link.find('div', class_='cc tag-mobile') is None:\n", 75 | " cc = 0\n", 76 | " else:\n", 77 | " cc = link.find('div', class_='cc tag-mobile').get_text().replace('cc','')\n", 78 | " if link.find('div', class_='ano tag-mobile') is None:\n", 79 | " ano = 0\n", 80 | " else:\n", 81 | " ano = link.find('div', class_='ano tag-mobile').get_text().replace('año','') #¿Alguna solución mejor que un if para esto?\n", 82 | " if link.find('div', class_='kms tag-mobile') is None:\n", 83 | " kms = 0\n", 84 | " else:\n", 85 | " kms = link.find('div', class_='kms tag-mobile').get_text().replace('kms','')\n", 86 | "\n", 87 | " nueva_fila = {'producto':producto,'tipo_anuncio':tipo_anuncio,'precio':precio,'texto':texto,'cc':cc,'ano':ano,'kms':kms}\n", 88 | " df = df.append(nueva_fila, ignore_index=True)\n", 89 | " \n", 90 | "df" 91 | ] 92 | }, 93 | { 94 | "cell_type": "markdown", 95 | "metadata": {}, 96 | "source": [ 97 | "### Ejercicio\n", 98 | "\n", 99 | "Modifica el código anterior para que, además de bajarse la página actual, navegue por el resto de páginas e incorpore también esos anuncios a tu dataframe." 100 | ] 101 | }, 102 | { 103 | "cell_type": "code", 104 | "execution_count": null, 105 | "metadata": {}, 106 | "outputs": [], 107 | "source": [ 108 | "page = requests.get('https://www.milanuncios.com/motos-de-carretera/duke-390.htm', headers=headers)\n", 109 | "soup = BeautifulSoup(page.content, 'html.parser')\n", 110 | "\n", 111 | "columns = ['producto','tipo_anuncio','precio','texto','cc','ano','kms']\n", 112 | "df = pd.DataFrame(columns=columns)\n", 113 | "nueva_pag = 1\n", 114 | "while len(soup.find_all('div', class_='aditem ParticularCardTestABClass')) > 0:\n", 115 | " for link in soup.find_all('div', class_='aditem ParticularCardTestABClass'):\n", 116 | " producto = link.find('a', class_='aditem-detail-title').get_text()\n", 117 | " tipo_anuncio = link.find('div', class_='x3').get_text()\n", 118 | " if link.find('div', class_='aditem-price') is None:\n", 119 | " precio = 0\n", 120 | " else:\n", 121 | " precio = link.find('div', class_='aditem-price').get_text().replace('€','')\n", 122 | " texto = link.find('div', class_='tx').get_text()\n", 123 | " if link.find('div', class_='cc tag-mobile') is None:\n", 124 | " cc = 0\n", 125 | " else:\n", 126 | " cc = link.find('div', class_='cc tag-mobile').get_text().replace('cc','')\n", 127 | " if link.find('div', class_='ano tag-mobile') is None:\n", 128 | " ano = 0\n", 129 | " else:\n", 130 | " ano = link.find('div', class_='ano tag-mobile').get_text().replace('año','') #¿Alguna solución mejor que un if para esto?\n", 131 | " if link.find('div', class_='kms tag-mobile') is None:\n", 132 | " kms = 0\n", 133 | " else:\n", 134 | " kms = link.find('div', class_='kms tag-mobile').get_text().replace('kms','')\n", 135 | "\n", 136 | " nueva_fila = {'producto':producto,'tipo_anuncio':tipo_anuncio,'precio':precio,'texto':texto,'cc':cc,'ano':ano,'kms':kms}\n", 137 | " df = df.append(nueva_fila, ignore_index=True)\n", 138 | "\n", 139 | " nueva_pag += 1\n", 140 | " page = requests.get('https://www.milanuncios.com/motos-de-carretera/duke-390.htm?pagina='+str(nueva_pag), headers=headers)\n", 141 | " soup = BeautifulSoup(page.content, 'html.parser')\n", 142 | "\n", 143 | "df" 144 | ] 145 | }, 146 | { 147 | "cell_type": "markdown", 148 | "metadata": {}, 149 | "source": [ 150 | "Primero, hacemos una petición para descargar la página de interés (que contiene las cotizaciones de las acciones del IBEX 35 en tiempo _casi_ real)." 151 | ] 152 | }, 153 | { 154 | "cell_type": "code", 155 | "execution_count": null, 156 | "metadata": {}, 157 | "outputs": [], 158 | "source": [ 159 | "# Pasos previos al ejercicio que se ejecutan durante el notebook de explicación\n", 160 | "base_url = \"https://www.eleconomista.es/indice/IBEX-35\"\n", 161 | "res = requests.get(base_url)\n", 162 | "contenido = res.content\n", 163 | "soup = BeautifulSoup(contenido, \"html.parser\")\n", 164 | "tablas = soup.find_all('table')\n", 165 | "lineas = [x for tabla in tablas for x in tabla.find_all('tr')]\n", 166 | "datos = [[x.text for x in linea.find_all('td')] for linea in lineas]\n", 167 | "datos = [x for x in datos if len(x) > 0]\n", 168 | "datos = pd.DataFrame(datos)\n", 169 | "datos" 170 | ] 171 | }, 172 | { 173 | "cell_type": "markdown", 174 | "metadata": {}, 175 | "source": [ 176 | "#### Ejercicio\n", 177 | "\n", 178 | "Usa los elementos `th` de la primera fila de las tablas para extraer nombres para las columnas de la tabla. " 179 | ] 180 | }, 181 | { 182 | "cell_type": "code", 183 | "execution_count": null, 184 | "metadata": {}, 185 | "outputs": [], 186 | "source": [ 187 | "cabecera = [[x.text for x in linea.find_all('th')] for linea in lineas]\n", 188 | "cabecera = [x for x in cabecera if len(x) > 0]\n", 189 | "cabecera = cabecera[0]\n", 190 | "cabecera" 191 | ] 192 | }, 193 | { 194 | "cell_type": "markdown", 195 | "metadata": {}, 196 | "source": [ 197 | "#### Ejercicio\n", 198 | "\n", 199 | "Elimina las columnas irrelevantes y cambia los nombres de las columnas por otros breves y sin caracteres extraños o que dificulten el posproceso." 200 | ] 201 | }, 202 | { 203 | "cell_type": "code", 204 | "execution_count": null, 205 | "metadata": {}, 206 | "outputs": [], 207 | "source": [ 208 | "cabecera = [[x.text for x in linea.find_all('th')] for linea in lineas]\n", 209 | "cabecera = [x for x in cabecera if len(x) > 0]\n", 210 | "cabecera = cabecera[0]\n", 211 | "cabecera.pop(2) #Elimino la columna que tiene el nombre en blanco\n", 212 | "\n", 213 | "cabecera = [re.sub('[()/. ]','',x) for x in cabecera]\n", 214 | "cabecera = [re.sub('ó','o',x) for x in cabecera]\n", 215 | "cabecera = [re.sub('%','pct',x) for x in cabecera]\n", 216 | "cabecera = [re.sub('€','Euros',x) for x in cabecera]\n", 217 | "cabecera[8] = 'Fecha'\n", 218 | "\n", 219 | "datos = datos.drop([2], axis = 1) #Elimino una columna en blanco\n", 220 | "\n", 221 | "datos.columns = cabecera\n", 222 | "\n", 223 | "datos" 224 | ] 225 | }, 226 | { 227 | "cell_type": "markdown", 228 | "metadata": {}, 229 | "source": [ 230 | "#### Ejercicio\n", 231 | "\n", 232 | "Cambia el formato de las columnas adecuadamente: convierte a numéricas, etc., las columnas que lo requieran." 233 | ] 234 | }, 235 | { 236 | "cell_type": "code", 237 | "execution_count": null, 238 | "metadata": {}, 239 | "outputs": [], 240 | "source": [ 241 | "datos['VolumenEuros'] = datos['VolumenEuros'].replace(regex=r'\\.',value='')\n", 242 | "\n", 243 | "datos = datos.replace(regex=r'%',value='')\n", 244 | "datos = datos.replace(regex=r',',value='.')\n", 245 | "datos[['Precio','Varpct','VarEuros','VolumenEuros','Capitalizacion1','PER','RentDiv']] = datos[['Precio','Varpct','VarEuros','VolumenEuros','Capitalizacion1','PER','RentDiv']].astype(float)\n", 246 | "\n", 247 | "datos['Fecha'] = datos['Fecha'] + '/2020'\n", 248 | "\n", 249 | "datos['Fecha'] = pd.to_datetime(datos['Fecha'], format='%d/%m/%Y')\n", 250 | "\n", 251 | "datos.dtypes" 252 | ] 253 | } 254 | ], 255 | "metadata": { 256 | "kernelspec": { 257 | "display_name": "libropython", 258 | "language": "python", 259 | "name": "libropython" 260 | }, 261 | "language_info": { 262 | "codemirror_mode": { 263 | "name": "ipython", 264 | "version": 3 265 | }, 266 | "file_extension": ".py", 267 | "mimetype": "text/x-python", 268 | "name": "python", 269 | "nbconvert_exporter": "python", 270 | "pygments_lexer": "ipython3", 271 | "version": "3.7.6" 272 | } 273 | }, 274 | "nbformat": 4, 275 | "nbformat_minor": 2 276 | } 277 | -------------------------------------------------------------------------------- /notebooks/soluciones/11_pivotacion_tablas.ipynb: -------------------------------------------------------------------------------- 1 | { 2 | "cells": [ 3 | { 4 | "cell_type": "code", 5 | "execution_count": null, 6 | "metadata": {}, 7 | "outputs": [], 8 | "source": [ 9 | "# Ponemos como ruta principal la carpeta padre de \"soluciones\"\n", 10 | "# para que las rutas relativas queden igual que en la carpeta de notebooks\n", 11 | "import paths\n", 12 | "\n", 13 | "# Otras dependencias\n", 14 | "import pandas as pd\n", 15 | "import numpy as np" 16 | ] 17 | }, 18 | { 19 | "cell_type": "markdown", 20 | "metadata": {}, 21 | "source": [ 22 | "#### Ejercicio\n", 23 | "\n", 24 | "Investiga y cambia los nombres de las columnas resultantes (variable y value) por otros que consideres adecuados, durante el proceso de `melt`." 25 | ] 26 | }, 27 | { 28 | "cell_type": "code", 29 | "execution_count": null, 30 | "metadata": {}, 31 | "outputs": [], 32 | "source": [ 33 | "air = pd.read_csv(\"dat/airquality.csv\")\n", 34 | "air.head()" 35 | ] 36 | }, 37 | { 38 | "cell_type": "code", 39 | "execution_count": null, 40 | "metadata": {}, 41 | "outputs": [], 42 | "source": [ 43 | "air_long = air.melt(id_vars=['month', 'day'], var_name = \"Air quality variable\", value_name = \"Measure\")\n", 44 | "air_long.head()" 45 | ] 46 | }, 47 | { 48 | "cell_type": "markdown", 49 | "metadata": {}, 50 | "source": [ 51 | "#### Ejercicio\n", 52 | "\n", 53 | "La función [`pivot_table`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.pivot_table.html) permite agregar si hay más de un valor por cada fila (es decir, parejas de índice + variable duplicadas).\n", 54 | "\n", 55 | "Aprovecha esta utilidad para, en el paso de `air_long` a ancho, calcular la mediana por variable por mes." 56 | ] 57 | }, 58 | { 59 | "cell_type": "code", 60 | "execution_count": null, 61 | "metadata": {}, 62 | "outputs": [], 63 | "source": [ 64 | "air_wide = air_long.pivot_table(index=['month'], columns='Air quality variable', values='Measure',aggfunc=np.median)\n", 65 | "air_wide.head()" 66 | ] 67 | }, 68 | { 69 | "cell_type": "markdown", 70 | "metadata": {}, 71 | "source": [ 72 | "#### Ejercicio\n", 73 | "\n", 74 | "Carga en un dataframe el fichero `dat/contaminacion_mad_201812.csv`, y mira qué aspecto tiene. Nuestro objetivo es dejarlo en formato largo, y quedarnos únicamente con los días con una medida válida. Para hacerlo:\n", 75 | "\n", 76 | "* A partir de ese dataframe, crea dos nuevos:\n", 77 | "\n", 78 | " * Uno con el índice + las columnas con los valores (D01, ..., D31)\n", 79 | " * Otro con el índice + las columnas con la validez (V01, ..., V31)\n", 80 | "\n", 81 | "* Pasa ambos a formato largo. El día debe quedar como numérico en ambos.\n", 82 | "* Cruza los resultados, para tener en el mismo dataframe valor y validez\n", 83 | "* Limpia la fecha, para tenerla como `date`" 84 | ] 85 | }, 86 | { 87 | "cell_type": "markdown", 88 | "metadata": {}, 89 | "source": [ 90 | "Cargamos el dataframe" 91 | ] 92 | }, 93 | { 94 | "cell_type": "code", 95 | "execution_count": null, 96 | "metadata": {}, 97 | "outputs": [], 98 | "source": [ 99 | "df = pd.read_csv(\"dat/contaminacion_mad_201812.csv\",sep = \";\") " 100 | ] 101 | }, 102 | { 103 | "cell_type": "code", 104 | "execution_count": null, 105 | "metadata": {}, 106 | "outputs": [], 107 | "source": [ 108 | "df.head()" 109 | ] 110 | }, 111 | { 112 | "cell_type": "markdown", 113 | "metadata": {}, 114 | "source": [ 115 | "Creamos los dos nuevos dataframes" 116 | ] 117 | }, 118 | { 119 | "cell_type": "code", 120 | "execution_count": null, 121 | "metadata": {}, 122 | "outputs": [], 123 | "source": [ 124 | "column_index = ['ANO','MES']\n", 125 | "column_index += ['D{:02}'.format(i) for i in range(1, 32)]" 126 | ] 127 | }, 128 | { 129 | "cell_type": "code", 130 | "execution_count": null, 131 | "metadata": {}, 132 | "outputs": [], 133 | "source": [ 134 | "df1 = df[column_index]" 135 | ] 136 | }, 137 | { 138 | "cell_type": "code", 139 | "execution_count": null, 140 | "metadata": {}, 141 | "outputs": [], 142 | "source": [ 143 | "df1.head()" 144 | ] 145 | }, 146 | { 147 | "cell_type": "code", 148 | "execution_count": null, 149 | "metadata": {}, 150 | "outputs": [], 151 | "source": [ 152 | "column_index = ['ANO','MES']\n", 153 | "column_index += ['V{:02}'.format(i) for i in range(1, 32)]" 154 | ] 155 | }, 156 | { 157 | "cell_type": "code", 158 | "execution_count": null, 159 | "metadata": {}, 160 | "outputs": [], 161 | "source": [ 162 | "df2 = df[column_index]" 163 | ] 164 | }, 165 | { 166 | "cell_type": "code", 167 | "execution_count": null, 168 | "metadata": {}, 169 | "outputs": [], 170 | "source": [ 171 | "df2.head()" 172 | ] 173 | }, 174 | { 175 | "cell_type": "markdown", 176 | "metadata": {}, 177 | "source": [ 178 | "Pasamos a formato largo" 179 | ] 180 | }, 181 | { 182 | "cell_type": "code", 183 | "execution_count": null, 184 | "metadata": {}, 185 | "outputs": [], 186 | "source": [ 187 | "df1_long = df1.melt(id_vars= ['ANO','MES'],var_name='Day', value_name='value')\n", 188 | "df1_long['Day'] = df1_long.Day.str.replace(\"D\", \"\").astype(int)\n", 189 | "df1_long.head()" 190 | ] 191 | }, 192 | { 193 | "cell_type": "code", 194 | "execution_count": null, 195 | "metadata": {}, 196 | "outputs": [], 197 | "source": [ 198 | "df2_long = df2.melt(id_vars= ['ANO','MES'],var_name='Day', value_name='Validity')\n", 199 | "df2_long['Day'] = df2_long.Day.str.replace(\"V\", \"\").astype(int)\n", 200 | "df2_long.head()" 201 | ] 202 | }, 203 | { 204 | "cell_type": "markdown", 205 | "metadata": {}, 206 | "source": [ 207 | "Cruzamos los resultados" 208 | ] 209 | }, 210 | { 211 | "cell_type": "code", 212 | "execution_count": null, 213 | "metadata": {}, 214 | "outputs": [], 215 | "source": [ 216 | "new_df = df1_long.copy()\n", 217 | "new_df['Validity']=df2_long['Validity']\n", 218 | "new_df.head()" 219 | ] 220 | }, 221 | { 222 | "cell_type": "markdown", 223 | "metadata": {}, 224 | "source": [ 225 | "Limpiamos la fecha para tenerla como date. Sólo las entradas válidas se deberán traducir a formato date." 226 | ] 227 | }, 228 | { 229 | "cell_type": "code", 230 | "execution_count": null, 231 | "metadata": {}, 232 | "outputs": [], 233 | "source": [ 234 | "df_out = new_df[new_df['Validity']=='V']\n", 235 | "df_out.head()" 236 | ] 237 | }, 238 | { 239 | "cell_type": "code", 240 | "execution_count": null, 241 | "metadata": {}, 242 | "outputs": [], 243 | "source": [ 244 | "df_date = df_out[[\"ANO\", \"MES\", \"Day\"]].copy()\n", 245 | "df_date.columns = [\"year\", \"month\", \"day\"]\n", 246 | "df_out['Date'] = pd.to_datetime(df_date)\n", 247 | "df_out = df_out[['Date', 'value','Validity']]" 248 | ] 249 | }, 250 | { 251 | "cell_type": "code", 252 | "execution_count": null, 253 | "metadata": {}, 254 | "outputs": [], 255 | "source": [ 256 | " df_out.head()" 257 | ] 258 | } 259 | ], 260 | "metadata": { 261 | "kernelspec": { 262 | "display_name": "Python 3", 263 | "language": "python", 264 | "name": "python3" 265 | }, 266 | "language_info": { 267 | "codemirror_mode": { 268 | "name": "ipython", 269 | "version": 3 270 | }, 271 | "file_extension": ".py", 272 | "mimetype": "text/x-python", 273 | "name": "python", 274 | "nbconvert_exporter": "python", 275 | "pygments_lexer": "ipython3", 276 | "version": "3.7.6" 277 | } 278 | }, 279 | "nbformat": 4, 280 | "nbformat_minor": 4 281 | } 282 | -------------------------------------------------------------------------------- /notebooks/soluciones/paths.py: -------------------------------------------------------------------------------- 1 | import os 2 | 3 | os.chdir("..") 4 | --------------------------------------------------------------------------------