├── .github
└── FUNDING.yml
├── .gitignore
├── Dockerfile.local
├── LICENSE.txt
├── Pipfile
├── Pipfile.lock
├── README.md
├── docker-compose.yml
└── notebooks
├── 01_anaconda_notebooks.ipynb
├── 02_pandas.ipynb
├── 03_programacion.ipynb
├── 04_apis.ipynb
├── 05_web_scraping.ipynb
├── 06_intro_visualizacion.Rmd
├── 06_intro_visualizacion.html
├── 07_graficos.ipynb
├── 08_graficos_seaborn.ipynb
├── 09_graficos_mapas.ipynb
├── 10_numpy.ipynb
├── 11_pivotacion_tablas.ipynb
├── 12_bases_de_datos.ipynb
├── 13_produccion.ipynb
├── 14_entornos.ipynb
├── dat
├── README.md
├── airquality.csv
├── alquiler-madrid-distritos.csv
├── alquiler-madrid-municipios.csv
├── contaminacion_mad_201812.csv
├── economist-countries-data.csv
├── listings.csv
├── milanuncios.html
├── neighbourhoods.csv
├── neighbourhoods.geojson
├── ufos.csv
├── venta-madrid-distritos.csv
└── venta-madrid-municipios.csv
└── soluciones
├── 02_pandas.ipynb
├── 05_web_scraping.ipynb
├── 11_pivotacion_tablas.ipynb
└── paths.py
/.github/FUNDING.yml:
--------------------------------------------------------------------------------
1 | # These are supported funding model platforms
2 |
3 | github: [koldLight]
4 |
--------------------------------------------------------------------------------
/.gitignore:
--------------------------------------------------------------------------------
1 | .ipynb_checkpoints
2 | completado/
3 | .python-version
4 |
--------------------------------------------------------------------------------
/Dockerfile.local:
--------------------------------------------------------------------------------
1 | FROM python:3.7.6
2 | ENV SOURCE_PATH /curso
3 | WORKDIR $SOURCE_PATH
4 | COPY Pipfile* $SOURCE_PATH/
5 |
6 | COPY . .
7 |
8 | RUN pip install pipenv
9 | RUN pip install jupyter
10 | RUN pipenv install --dev
11 | RUN pipenv install ipykernel
12 | RUN pipenv run python -m ipykernel install --user --name='libropython'
13 |
--------------------------------------------------------------------------------
/LICENSE.txt:
--------------------------------------------------------------------------------
1 | Attribution-ShareAlike 4.0 International
2 |
3 | =======================================================================
4 |
5 | Creative Commons Corporation ("Creative Commons") is not a law firm and
6 | does not provide legal services or legal advice. Distribution of
7 | Creative Commons public licenses does not create a lawyer-client or
8 | other relationship. Creative Commons makes its licenses and related
9 | information available on an "as-is" basis. Creative Commons gives no
10 | warranties regarding its licenses, any material licensed under their
11 | terms and conditions, or any related information. Creative Commons
12 | disclaims all liability for damages resulting from their use to the
13 | fullest extent possible.
14 |
15 | Using Creative Commons Public Licenses
16 |
17 | Creative Commons public licenses provide a standard set of terms and
18 | conditions that creators and other rights holders may use to share
19 | original works of authorship and other material subject to copyright
20 | and certain other rights specified in the public license below. The
21 | following considerations are for informational purposes only, are not
22 | exhaustive, and do not form part of our licenses.
23 |
24 | Considerations for licensors: Our public licenses are
25 | intended for use by those authorized to give the public
26 | permission to use material in ways otherwise restricted by
27 | copyright and certain other rights. Our licenses are
28 | irrevocable. Licensors should read and understand the terms
29 | and conditions of the license they choose before applying it.
30 | Licensors should also secure all rights necessary before
31 | applying our licenses so that the public can reuse the
32 | material as expected. Licensors should clearly mark any
33 | material not subject to the license. This includes other CC-
34 | licensed material, or material used under an exception or
35 | limitation to copyright. More considerations for licensors:
36 | wiki.creativecommons.org/Considerations_for_licensors
37 |
38 | Considerations for the public: By using one of our public
39 | licenses, a licensor grants the public permission to use the
40 | licensed material under specified terms and conditions. If
41 | the licensor's permission is not necessary for any reason--for
42 | example, because of any applicable exception or limitation to
43 | copyright--then that use is not regulated by the license. Our
44 | licenses grant only permissions under copyright and certain
45 | other rights that a licensor has authority to grant. Use of
46 | the licensed material may still be restricted for other
47 | reasons, including because others have copyright or other
48 | rights in the material. A licensor may make special requests,
49 | such as asking that all changes be marked or described.
50 | Although not required by our licenses, you are encouraged to
51 | respect those requests where reasonable. More_considerations
52 | for the public:
53 | wiki.creativecommons.org/Considerations_for_licensees
54 |
55 | =======================================================================
56 |
57 | Creative Commons Attribution-ShareAlike 4.0 International Public
58 | License
59 |
60 | By exercising the Licensed Rights (defined below), You accept and agree
61 | to be bound by the terms and conditions of this Creative Commons
62 | Attribution-ShareAlike 4.0 International Public License ("Public
63 | License"). To the extent this Public License may be interpreted as a
64 | contract, You are granted the Licensed Rights in consideration of Your
65 | acceptance of these terms and conditions, and the Licensor grants You
66 | such rights in consideration of benefits the Licensor receives from
67 | making the Licensed Material available under these terms and
68 | conditions.
69 |
70 |
71 | Section 1 -- Definitions.
72 |
73 | a. Adapted Material means material subject to Copyright and Similar
74 | Rights that is derived from or based upon the Licensed Material
75 | and in which the Licensed Material is translated, altered,
76 | arranged, transformed, or otherwise modified in a manner requiring
77 | permission under the Copyright and Similar Rights held by the
78 | Licensor. For purposes of this Public License, where the Licensed
79 | Material is a musical work, performance, or sound recording,
80 | Adapted Material is always produced where the Licensed Material is
81 | synched in timed relation with a moving image.
82 |
83 | b. Adapter's License means the license You apply to Your Copyright
84 | and Similar Rights in Your contributions to Adapted Material in
85 | accordance with the terms and conditions of this Public License.
86 |
87 | c. BY-SA Compatible License means a license listed at
88 | creativecommons.org/compatiblelicenses, approved by Creative
89 | Commons as essentially the equivalent of this Public License.
90 |
91 | d. Copyright and Similar Rights means copyright and/or similar rights
92 | closely related to copyright including, without limitation,
93 | performance, broadcast, sound recording, and Sui Generis Database
94 | Rights, without regard to how the rights are labeled or
95 | categorized. For purposes of this Public License, the rights
96 | specified in Section 2(b)(1)-(2) are not Copyright and Similar
97 | Rights.
98 |
99 | e. Effective Technological Measures means those measures that, in the
100 | absence of proper authority, may not be circumvented under laws
101 | fulfilling obligations under Article 11 of the WIPO Copyright
102 | Treaty adopted on December 20, 1996, and/or similar international
103 | agreements.
104 |
105 | f. Exceptions and Limitations means fair use, fair dealing, and/or
106 | any other exception or limitation to Copyright and Similar Rights
107 | that applies to Your use of the Licensed Material.
108 |
109 | g. License Elements means the license attributes listed in the name
110 | of a Creative Commons Public License. The License Elements of this
111 | Public License are Attribution and ShareAlike.
112 |
113 | h. Licensed Material means the artistic or literary work, database,
114 | or other material to which the Licensor applied this Public
115 | License.
116 |
117 | i. Licensed Rights means the rights granted to You subject to the
118 | terms and conditions of this Public License, which are limited to
119 | all Copyright and Similar Rights that apply to Your use of the
120 | Licensed Material and that the Licensor has authority to license.
121 |
122 | j. Licensor means the individual(s) or entity(ies) granting rights
123 | under this Public License.
124 |
125 | k. Share means to provide material to the public by any means or
126 | process that requires permission under the Licensed Rights, such
127 | as reproduction, public display, public performance, distribution,
128 | dissemination, communication, or importation, and to make material
129 | available to the public including in ways that members of the
130 | public may access the material from a place and at a time
131 | individually chosen by them.
132 |
133 | l. Sui Generis Database Rights means rights other than copyright
134 | resulting from Directive 96/9/EC of the European Parliament and of
135 | the Council of 11 March 1996 on the legal protection of databases,
136 | as amended and/or succeeded, as well as other essentially
137 | equivalent rights anywhere in the world.
138 |
139 | m. You means the individual or entity exercising the Licensed Rights
140 | under this Public License. Your has a corresponding meaning.
141 |
142 |
143 | Section 2 -- Scope.
144 |
145 | a. License grant.
146 |
147 | 1. Subject to the terms and conditions of this Public License,
148 | the Licensor hereby grants You a worldwide, royalty-free,
149 | non-sublicensable, non-exclusive, irrevocable license to
150 | exercise the Licensed Rights in the Licensed Material to:
151 |
152 | a. reproduce and Share the Licensed Material, in whole or
153 | in part; and
154 |
155 | b. produce, reproduce, and Share Adapted Material.
156 |
157 | 2. Exceptions and Limitations. For the avoidance of doubt, where
158 | Exceptions and Limitations apply to Your use, this Public
159 | License does not apply, and You do not need to comply with
160 | its terms and conditions.
161 |
162 | 3. Term. The term of this Public License is specified in Section
163 | 6(a).
164 |
165 | 4. Media and formats; technical modifications allowed. The
166 | Licensor authorizes You to exercise the Licensed Rights in
167 | all media and formats whether now known or hereafter created,
168 | and to make technical modifications necessary to do so. The
169 | Licensor waives and/or agrees not to assert any right or
170 | authority to forbid You from making technical modifications
171 | necessary to exercise the Licensed Rights, including
172 | technical modifications necessary to circumvent Effective
173 | Technological Measures. For purposes of this Public License,
174 | simply making modifications authorized by this Section 2(a)
175 | (4) never produces Adapted Material.
176 |
177 | 5. Downstream recipients.
178 |
179 | a. Offer from the Licensor -- Licensed Material. Every
180 | recipient of the Licensed Material automatically
181 | receives an offer from the Licensor to exercise the
182 | Licensed Rights under the terms and conditions of this
183 | Public License.
184 |
185 | b. Additional offer from the Licensor -- Adapted Material.
186 | Every recipient of Adapted Material from You
187 | automatically receives an offer from the Licensor to
188 | exercise the Licensed Rights in the Adapted Material
189 | under the conditions of the Adapter's License You apply.
190 |
191 | c. No downstream restrictions. You may not offer or impose
192 | any additional or different terms or conditions on, or
193 | apply any Effective Technological Measures to, the
194 | Licensed Material if doing so restricts exercise of the
195 | Licensed Rights by any recipient of the Licensed
196 | Material.
197 |
198 | 6. No endorsement. Nothing in this Public License constitutes or
199 | may be construed as permission to assert or imply that You
200 | are, or that Your use of the Licensed Material is, connected
201 | with, or sponsored, endorsed, or granted official status by,
202 | the Licensor or others designated to receive attribution as
203 | provided in Section 3(a)(1)(A)(i).
204 |
205 | b. Other rights.
206 |
207 | 1. Moral rights, such as the right of integrity, are not
208 | licensed under this Public License, nor are publicity,
209 | privacy, and/or other similar personality rights; however, to
210 | the extent possible, the Licensor waives and/or agrees not to
211 | assert any such rights held by the Licensor to the limited
212 | extent necessary to allow You to exercise the Licensed
213 | Rights, but not otherwise.
214 |
215 | 2. Patent and trademark rights are not licensed under this
216 | Public License.
217 |
218 | 3. To the extent possible, the Licensor waives any right to
219 | collect royalties from You for the exercise of the Licensed
220 | Rights, whether directly or through a collecting society
221 | under any voluntary or waivable statutory or compulsory
222 | licensing scheme. In all other cases the Licensor expressly
223 | reserves any right to collect such royalties.
224 |
225 |
226 | Section 3 -- License Conditions.
227 |
228 | Your exercise of the Licensed Rights is expressly made subject to the
229 | following conditions.
230 |
231 | a. Attribution.
232 |
233 | 1. If You Share the Licensed Material (including in modified
234 | form), You must:
235 |
236 | a. retain the following if it is supplied by the Licensor
237 | with the Licensed Material:
238 |
239 | i. identification of the creator(s) of the Licensed
240 | Material and any others designated to receive
241 | attribution, in any reasonable manner requested by
242 | the Licensor (including by pseudonym if
243 | designated);
244 |
245 | ii. a copyright notice;
246 |
247 | iii. a notice that refers to this Public License;
248 |
249 | iv. a notice that refers to the disclaimer of
250 | warranties;
251 |
252 | v. a URI or hyperlink to the Licensed Material to the
253 | extent reasonably practicable;
254 |
255 | b. indicate if You modified the Licensed Material and
256 | retain an indication of any previous modifications; and
257 |
258 | c. indicate the Licensed Material is licensed under this
259 | Public License, and include the text of, or the URI or
260 | hyperlink to, this Public License.
261 |
262 | 2. You may satisfy the conditions in Section 3(a)(1) in any
263 | reasonable manner based on the medium, means, and context in
264 | which You Share the Licensed Material. For example, it may be
265 | reasonable to satisfy the conditions by providing a URI or
266 | hyperlink to a resource that includes the required
267 | information.
268 |
269 | 3. If requested by the Licensor, You must remove any of the
270 | information required by Section 3(a)(1)(A) to the extent
271 | reasonably practicable.
272 |
273 | b. ShareAlike.
274 |
275 | In addition to the conditions in Section 3(a), if You Share
276 | Adapted Material You produce, the following conditions also apply.
277 |
278 | 1. The Adapter's License You apply must be a Creative Commons
279 | license with the same License Elements, this version or
280 | later, or a BY-SA Compatible License.
281 |
282 | 2. You must include the text of, or the URI or hyperlink to, the
283 | Adapter's License You apply. You may satisfy this condition
284 | in any reasonable manner based on the medium, means, and
285 | context in which You Share Adapted Material.
286 |
287 | 3. You may not offer or impose any additional or different terms
288 | or conditions on, or apply any Effective Technological
289 | Measures to, Adapted Material that restrict exercise of the
290 | rights granted under the Adapter's License You apply.
291 |
292 |
293 | Section 4 -- Sui Generis Database Rights.
294 |
295 | Where the Licensed Rights include Sui Generis Database Rights that
296 | apply to Your use of the Licensed Material:
297 |
298 | a. for the avoidance of doubt, Section 2(a)(1) grants You the right
299 | to extract, reuse, reproduce, and Share all or a substantial
300 | portion of the contents of the database;
301 |
302 | b. if You include all or a substantial portion of the database
303 | contents in a database in which You have Sui Generis Database
304 | Rights, then the database in which You have Sui Generis Database
305 | Rights (but not its individual contents) is Adapted Material,
306 |
307 | including for purposes of Section 3(b); and
308 | c. You must comply with the conditions in Section 3(a) if You Share
309 | all or a substantial portion of the contents of the database.
310 |
311 | For the avoidance of doubt, this Section 4 supplements and does not
312 | replace Your obligations under this Public License where the Licensed
313 | Rights include other Copyright and Similar Rights.
314 |
315 |
316 | Section 5 -- Disclaimer of Warranties and Limitation of Liability.
317 |
318 | a. UNLESS OTHERWISE SEPARATELY UNDERTAKEN BY THE LICENSOR, TO THE
319 | EXTENT POSSIBLE, THE LICENSOR OFFERS THE LICENSED MATERIAL AS-IS
320 | AND AS-AVAILABLE, AND MAKES NO REPRESENTATIONS OR WARRANTIES OF
321 | ANY KIND CONCERNING THE LICENSED MATERIAL, WHETHER EXPRESS,
322 | IMPLIED, STATUTORY, OR OTHER. THIS INCLUDES, WITHOUT LIMITATION,
323 | WARRANTIES OF TITLE, MERCHANTABILITY, FITNESS FOR A PARTICULAR
324 | PURPOSE, NON-INFRINGEMENT, ABSENCE OF LATENT OR OTHER DEFECTS,
325 | ACCURACY, OR THE PRESENCE OR ABSENCE OF ERRORS, WHETHER OR NOT
326 | KNOWN OR DISCOVERABLE. WHERE DISCLAIMERS OF WARRANTIES ARE NOT
327 | ALLOWED IN FULL OR IN PART, THIS DISCLAIMER MAY NOT APPLY TO YOU.
328 |
329 | b. TO THE EXTENT POSSIBLE, IN NO EVENT WILL THE LICENSOR BE LIABLE
330 | TO YOU ON ANY LEGAL THEORY (INCLUDING, WITHOUT LIMITATION,
331 | NEGLIGENCE) OR OTHERWISE FOR ANY DIRECT, SPECIAL, INDIRECT,
332 | INCIDENTAL, CONSEQUENTIAL, PUNITIVE, EXEMPLARY, OR OTHER LOSSES,
333 | COSTS, EXPENSES, OR DAMAGES ARISING OUT OF THIS PUBLIC LICENSE OR
334 | USE OF THE LICENSED MATERIAL, EVEN IF THE LICENSOR HAS BEEN
335 | ADVISED OF THE POSSIBILITY OF SUCH LOSSES, COSTS, EXPENSES, OR
336 | DAMAGES. WHERE A LIMITATION OF LIABILITY IS NOT ALLOWED IN FULL OR
337 | IN PART, THIS LIMITATION MAY NOT APPLY TO YOU.
338 |
339 | c. The disclaimer of warranties and limitation of liability provided
340 | above shall be interpreted in a manner that, to the extent
341 | possible, most closely approximates an absolute disclaimer and
342 | waiver of all liability.
343 |
344 |
345 | Section 6 -- Term and Termination.
346 |
347 | a. This Public License applies for the term of the Copyright and
348 | Similar Rights licensed here. However, if You fail to comply with
349 | this Public License, then Your rights under this Public License
350 | terminate automatically.
351 |
352 | b. Where Your right to use the Licensed Material has terminated under
353 | Section 6(a), it reinstates:
354 |
355 | 1. automatically as of the date the violation is cured, provided
356 | it is cured within 30 days of Your discovery of the
357 | violation; or
358 |
359 | 2. upon express reinstatement by the Licensor.
360 |
361 | For the avoidance of doubt, this Section 6(b) does not affect any
362 | right the Licensor may have to seek remedies for Your violations
363 | of this Public License.
364 |
365 | c. For the avoidance of doubt, the Licensor may also offer the
366 | Licensed Material under separate terms or conditions or stop
367 | distributing the Licensed Material at any time; however, doing so
368 | will not terminate this Public License.
369 |
370 | d. Sections 1, 5, 6, 7, and 8 survive termination of this Public
371 | License.
372 |
373 |
374 | Section 7 -- Other Terms and Conditions.
375 |
376 | a. The Licensor shall not be bound by any additional or different
377 | terms or conditions communicated by You unless expressly agreed.
378 |
379 | b. Any arrangements, understandings, or agreements regarding the
380 | Licensed Material not stated herein are separate from and
381 | independent of the terms and conditions of this Public License.
382 |
383 |
384 | Section 8 -- Interpretation.
385 |
386 | a. For the avoidance of doubt, this Public License does not, and
387 | shall not be interpreted to, reduce, limit, restrict, or impose
388 | conditions on any use of the Licensed Material that could lawfully
389 | be made without permission under this Public License.
390 |
391 | b. To the extent possible, if any provision of this Public License is
392 | deemed unenforceable, it shall be automatically reformed to the
393 | minimum extent necessary to make it enforceable. If the provision
394 | cannot be reformed, it shall be severed from this Public License
395 | without affecting the enforceability of the remaining terms and
396 | conditions.
397 |
398 | c. No term or condition of this Public License will be waived and no
399 | failure to comply consented to unless expressly agreed to by the
400 | Licensor.
401 |
402 | d. Nothing in this Public License constitutes or may be interpreted
403 | as a limitation upon, or waiver of, any privileges and immunities
404 | that apply to the Licensor or You, including from the legal
405 | processes of any jurisdiction or authority.
406 |
407 |
408 | =======================================================================
409 |
410 | Creative Commons is not a party to its public
411 | licenses. Notwithstanding, Creative Commons may elect to apply one of
412 | its public licenses to material it publishes and in those instances
413 | will be considered the “Licensor.” The text of the Creative Commons
414 | public licenses is dedicated to the public domain under the CC0 Public
415 | Domain Dedication. Except for the limited purpose of indicating that
416 | material is shared under a Creative Commons public license or as
417 | otherwise permitted by the Creative Commons policies published at
418 | creativecommons.org/policies, Creative Commons does not authorize the
419 | use of the trademark "Creative Commons" or any other trademark or logo
420 | of Creative Commons without its prior written consent including,
421 | without limitation, in connection with any unauthorized modifications
422 | to any of its public licenses or any other arrangements,
423 | understandings, or agreements concerning use of licensed material. For
424 | the avoidance of doubt, this paragraph does not form part of the
425 | public licenses.
426 |
427 | Creative Commons may be contacted at creativecommons.org.
428 |
--------------------------------------------------------------------------------
/Pipfile:
--------------------------------------------------------------------------------
1 | [[source]]
2 | name = "pypi"
3 | url = "https://pypi.org/simple"
4 | verify_ssl = true
5 |
6 | [dev-packages]
7 |
8 | [packages]
9 | sklearn = "*"
10 | pandas = "*"
11 | numpy = "*"
12 | seaborn = "*"
13 | requests = "*"
14 | bs4 = "*"
15 | matplotlib = "*"
16 | bokeh = "*"
17 | ipykernel = "*"
18 | folium = "*"
19 | Pillow = ">=8.2.0"
20 |
21 | [requires]
22 | python_version = "3.7"
23 |
--------------------------------------------------------------------------------
/README.md:
--------------------------------------------------------------------------------
1 | [](https://mybinder.org/v2/gh/koldLight/curso-python-analisis-datos/master)
2 |
3 | # Libro Python para análisis de datos
4 |
5 | Este curso tiene como objetivo enseñar Python orientado al análisis de datos en aproximadamente 24 horas.
6 |
7 | No hace falta tener conocimientos previos de Python.
8 |
9 | ## Contenido del curso
10 |
11 | * 1: Anaconda y notebooks
12 | * 2: Pandas
13 | * 3: Programación
14 | * 4: APIs
15 | * 5: Web scraping
16 | * 6: Introducción a la visualización de datos
17 | * 7: Gráficos
18 | * 8: Gráficos con seaborn
19 | * 9: Mapas
20 | * 10: Numpy
21 | * 11: Pivotación de tablas
22 | * 12: Bases de datos
23 | * 13: Producción
24 | * 14: Entornos
25 |
26 | _Nota:_ Hay gente que piensa que esta forma de ordenar el curso es _rara_. Los programadores estamos acostumbrados a empezar viendo sintaxis básica, tipos de datos, etc... para ir subiendo a librerías de más alto nivel más tarde.
27 |
28 | Aquí, lo he hecho al revés. Lo primero que vemos son tablas de datos con pandas y de forma indirecta iremos utilizando números, cadenas de texto, listas, diccionarios, ... sin haberlos dado explícitamente. ¿Por qué? Para que el principiante pueda ver avance rápidamente y comprenda para qué sirve esa _parte aburrida_ de los tipos de datos y estructuras básicas antes de ponerse con ellas.
29 |
30 | ## Ejecutar los notebooks del curso
31 |
32 | ### Opción 1: Binder
33 |
34 | La forma más fácil es utilizando Binder. Entra [aquí](https://mybinder.org/v2/gh/koldLight/curso-python-analisis-datos/master), espera a que se inicie, abre la carpeta de `notebooks` y tendrás los notebooks disponibles en un entorno funcional. De esta forma, puedes seguir el curso sin necesidad de que instales nada en tu ordenador.
35 |
36 | En cambio, si quieres ir realizando los ejercicios y guardando los resultados, te recomiendo que instales Python localmente.
37 |
38 | ### Opción 2: Instalación local
39 |
40 | Para lanzarlo desde tu máquina, tienes dos opciones:
41 |
42 | * Instalar Anaconda para Python 3 (recomendado para usuarios principiantes)
43 | * Utilizar `pipenv` (recomendado para usuarios avanzados).
44 |
45 | #### Opción 2a: Instalación local con Anaconda
46 |
47 | Instala la última versión de Anaconda para Python 3.7 para tu sistema operativo desde [aquí](https://www.anaconda.com/download). Fíjate bien que instales la de Python 3.7 (y no la de Python 2.7).
48 |
49 | Aquí tienes un tutorial paso a paso de cómo hacerlo:
50 |
51 | * [Windows](https://www.datacamp.com/community/tutorials/installing-anaconda-windows). Fíjate bien en el paso en el que debes marcar que añada anaconda al PATH. Esa casilla debe quedar marcada.
52 | * [Mac](https://www.datacamp.com/community/tutorials/installing-anaconda-mac-os-x).
53 |
54 | Una vez instalado, nuestra terminal debería reconocer los comandos `conda` (el gestor de paquetes), `jupyter` (la herramienta de notebooks) y `python`, gracias a que hemos añadido anaconda a nuestro PATH. Esto quiere decir que, cuando escribamos uno de estos comandos, nuestro sistema lo buscará en la carpeta de anaconda.
55 |
56 | Para comprobarlo, abre una consola. Esto se puede hacer:
57 |
58 | * En Windows, abriendo el menú inicio y escribiendo cmd.exe. Si necesitas ayuda, mira más opciones [aquí](https://www.lifewire.com/how-to-open-command-prompt-2618089).
59 | * En Mac, abre una terminal. Si necesitas ayuda sobre cómo abrirla, mira [aquí](https://blog.teamtreehouse.com/introduction-to-the-mac-os-x-command-line).
60 | * En ubuntu / debian, abre una terminal. Si necesitas ayuda, mira [aquí](https://www.lifewire.com/ways-to-open-a-terminal-console-window-using-ubuntu-4075024).
61 |
62 | Una vez abierto, nos debería funcionar bien los siguientes tres comandos:
63 |
64 | ```
65 | python --version
66 |
67 | conda --version
68 |
69 | jupyter --version
70 | ```
71 |
72 | Si nos dice que no reconoce el comando, es que no se ha añadido correctamente anaconda al PATH. Los tutoriales referenciados tienen buenas soluciones a este problema habitual.
73 |
74 | Ahora, vamos a instalar las dependencias necesarias para nuestras sesiones con `conda`. Para ello, abre una terminal en tu ordenador y lanza lo siguiente:
75 |
76 | ```
77 | conda install -c conda-forge seaborn
78 | conda install -c conda-forge folium
79 | ```
80 |
81 | Los comandos anteriores deberán instalar sin error las librerías.
82 |
83 | Y finalmente, para abrir los notebooks en Windows, puedes hacer, desde la consola (cmd.exe):
84 |
85 | ```
86 | jupyter notebook --notebook-dir='C:\mi\ruta\con\notebooks\'
87 | ```
88 |
89 | En mac o linux, con la terminal:
90 |
91 | ```
92 | jupyter notebook --notebook-dir='/mi/ruta/con/notebooks'
93 | ```
94 |
95 | Modificando la ruta dependiendo de dónde los hayas descargado.
96 |
97 | #### Opción 2b: Instalación local con pipenv
98 |
99 | Necesitarás:
100 |
101 | * Python 3.7 o superior
102 | * pipenv
103 | * jupyter
104 |
105 | Si no tienes `pipenv`, puedes instalarlo como comando así:
106 |
107 | ```
108 | sudo -H pip install -U pipenv
109 | ```
110 |
111 | Si no tienes `jupyter`, puedes instalarlo como comando así:
112 |
113 | ```
114 | sudo -H pip install -U jupyter
115 | ```
116 |
117 | Para instalar las dependencias, ejecuta:
118 |
119 | ```
120 | pipenv install --dev
121 | ```
122 |
123 | La primera vez que lo lances, creará el entorno virtual con las dependencias del proyecto.
124 |
125 | Y para crear el kernel sobre el que correrán los notebooks, lanza lo siguiente:
126 |
127 | ```
128 | # Activate the virtual environment
129 | pipenv shell
130 |
131 | # Create the kernel
132 | python -m ipykernel install --user --name='libropython'
133 |
134 | # Exit the virtual environment shell
135 | exit
136 | ```
137 |
138 | A partir de ahora, en `jupyter`, tendrás un nuevo kernel disponible llamado `libropython`. Tendrás que seleccionarlo para ejecutar correctamente los notebooks de este curso.
139 |
140 | Finalmente, para lanzar los notebooks:
141 |
142 | ```
143 | pipenv run jupyter notebook notebooks
144 | ```
145 |
146 | ### Opción 3: Docker
147 |
148 | Si prefieres utilizar un contenedor para lanzar el curso, basta con que tengas instalado `docker` en tu ordenador y lances:
149 |
150 | ```
151 | docker-compose up --build
152 | ```
153 |
154 | Cuando esté corriendo, saldrá un mensaje parecido a este por consola:
155 |
156 | ```
157 | curso_1 | To access the notebook, open this file in a browser:
158 | curso_1 | file:///root/.local/share/jupyter/runtime/nbserver-1-open.html
159 | curso_1 | Or copy and paste one of these URLs:
160 | curso_1 | http://d9a5de8c039a:8888/?token=xxxxxxxx
161 | curso_1 | or http://127.0.0.1:8888/?token=xxxxxxxx
162 | ```
163 |
164 | Copia y pega en tu navegador la última URL (la que empieza por `http://127.0.0.1:8888/?token=`) y accederás a los notebooks desplegados en tu contenedor.
165 |
166 | ## Contribuye
167 |
168 | Si ves algo incorrecto, que no se entiende bien, crees que falta alguna explicación o tienes alguna idea que compartir, puedes crear una `issue` en el repositorio.
169 |
170 | ## Licencia
171 |
172 | [](http://creativecommons.org/licenses/by-sa/4.0/)
173 |
174 | Puedes utilizar libremente este material, con las siguientes condiciones:
175 |
176 | * Atribuir la autoría a este repositorio.
177 | * Si lo utilizas y haces cambios, deberás liberarlo también bajo la misma licencia.
178 |
179 | ## TODO
180 |
181 | * Revisar links rotos
182 | * Añadir ejemplo paleta cut en sns
183 | * Pasar tema 06 intro visualización a notebook (en lugar de Rmd + html)
184 |
--------------------------------------------------------------------------------
/docker-compose.yml:
--------------------------------------------------------------------------------
1 | version: '3.7'
2 |
3 | services:
4 | curso:
5 | build:
6 | context: .
7 | dockerfile: Dockerfile.local
8 | volumes:
9 | - .:/curso
10 | ports:
11 | - 8888:8888
12 | command: pipenv run jupyter notebook notebooks --ip='0.0.0.0' --allow-root
13 |
--------------------------------------------------------------------------------
/notebooks/01_anaconda_notebooks.ipynb:
--------------------------------------------------------------------------------
1 | {
2 | "cells": [
3 | {
4 | "cell_type": "markdown",
5 | "metadata": {},
6 | "source": [
7 | "# Anaconda y _notebooks_"
8 | ]
9 | },
10 | {
11 | "cell_type": "markdown",
12 | "metadata": {
13 | "collapsed": true
14 | },
15 | "source": [
16 | "## Anaconda"
17 | ]
18 | },
19 | {
20 | "cell_type": "markdown",
21 | "metadata": {},
22 | "source": [
23 | "Anaconda es una distribución de Python autocontenida y aislada del resto del sistema operativo especialmente pensada para el análisis de datos y la computación científica. Incluye, además de Python, una serie de paquetes y herramientas utilizadas en análisis de datos como:\n",
24 | "\n",
25 | "* El gestor de paquetes `conda`\n",
26 | "* Jupyter _notebooks_\n",
27 | "* El IDE Spyder\n",
28 | "* Una selección de paquetes muy usados en ciencia de datos y aplicaciones científicas como `pandas`, `scikit-learn`, `scipy`, `numpy`, `matplotlib`,...\n",
29 | "\n",
30 | "Más información sobre Anaconda [aquí](https://docs.anaconda.com/anaconda/)."
31 | ]
32 | },
33 | {
34 | "cell_type": "markdown",
35 | "metadata": {},
36 | "source": [
37 | "## _Notebooks_"
38 | ]
39 | },
40 | {
41 | "cell_type": "markdown",
42 | "metadata": {},
43 | "source": [
44 | "Los _notebooks_ son documentos interactivos que combinan texto y código. Los usos principales son:\n",
45 | "\n",
46 | "* IDE: son una plataforma de desarrollo de código\n",
47 | "* Documentación de código\n",
48 | "* Presentación y diseminación de resultados\n",
49 | "\n",
50 | "Los _notebooks_ incorporan a Python los principios de la [_programación literaria_](https://en.wikipedia.org/wiki/Literate_programming) y [investigación reproducible](http://t-redactyl.io/blog/2016/10/a-crash-course-in-reproducible-research-in-python.html).\n",
51 | "\n",
52 | "Un _notebook_ es esencialmente una secuencia de bloques o celdas, que pueden ser de dos tipos: texto y código. En el menú superior hay un botón (con el símbolo de un teclado) que indica las combinaciones de teclas con las que se pueden crear, eliminar, editar, ejecutar, etc. los bloques.\n",
53 | "\n",
54 | "Los _notebooks_ se abren en el navegador. Nuestros _notebooks_ apuntan a un servidor que corre en local, pero es posible abrir _notebooks_ que corren en servidores remotos."
55 | ]
56 | },
57 | {
58 | "cell_type": "markdown",
59 | "metadata": {},
60 | "source": [
61 | "### Bloques de texto"
62 | ]
63 | },
64 | {
65 | "cell_type": "markdown",
66 | "metadata": {},
67 | "source": [
68 | "Los bloques de texto permiten crear títulos de distinto nivel; enumeraciones; texto corrido; marcas tipográficas como _cursivas_, **negritas** o `de código`, etc. Además de eso, se pueden escribir bloques de código como\n",
69 | "\n",
70 | "```\n",
71 | "for (i %in% 1:10)\n",
72 | " print(\"R rocks!)\n",
73 | "```\n",
74 | "\n",
75 | "Para saber más opciones de la sintaxis, mira [esta guía de `markdown`](https://www.markdownguide.org/basic-syntax/)"
76 | ]
77 | },
78 | {
79 | "cell_type": "markdown",
80 | "metadata": {},
81 | "source": [
82 | "### Bloques de código"
83 | ]
84 | },
85 | {
86 | "cell_type": "markdown",
87 | "metadata": {},
88 | "source": [
89 | "Los bloques de código contienen... código. Al ejecutarlo, se muestra el resultado de la última instrucción.\n",
90 | "\n",
91 | "El encargado de ejecutar el código es un _kernel_. Usaremos un _kernel_ de Python, pero es posible asociar a un _notebook_ _kernels_ en otros lenguajes de programación (p.e., Julia o R)."
92 | ]
93 | },
94 | {
95 | "cell_type": "code",
96 | "execution_count": null,
97 | "metadata": {},
98 | "outputs": [],
99 | "source": [
100 | "# Un ejemplo de celda con código\n",
101 | "a = 4\n",
102 | "b = 3\n",
103 | "a + b"
104 | ]
105 | },
106 | {
107 | "cell_type": "markdown",
108 | "metadata": {},
109 | "source": [
110 | "Cuando devolvemos una tabla en una celda, se visualiza con formato:"
111 | ]
112 | },
113 | {
114 | "cell_type": "code",
115 | "execution_count": null,
116 | "metadata": {},
117 | "outputs": [],
118 | "source": [
119 | "from sklearn import datasets\n",
120 | "import pandas as pd\n",
121 | "import numpy as np\n",
122 | "\n",
123 | "iris_data = datasets.load_iris()\n",
124 | "\n",
125 | "iris = pd.DataFrame(iris_data.data,columns=iris_data.feature_names)\n",
126 | "iris['species'] = pd.Series(iris_data.target_names[iris_data.target])\n",
127 | "iris.head()"
128 | ]
129 | },
130 | {
131 | "cell_type": "markdown",
132 | "metadata": {},
133 | "source": [
134 | "También podemos incluir gráficos devolviéndolos en celdas de código"
135 | ]
136 | },
137 | {
138 | "cell_type": "code",
139 | "execution_count": null,
140 | "metadata": {},
141 | "outputs": [],
142 | "source": [
143 | "# Con esta instrucción, indicamos que queremos ver incrustados los gráficos dentro del notebook\n",
144 | "\n",
145 | "%matplotlib inline"
146 | ]
147 | },
148 | {
149 | "cell_type": "code",
150 | "execution_count": null,
151 | "metadata": {},
152 | "outputs": [],
153 | "source": [
154 | "iris.plot.scatter(x='petal length (cm)',\n",
155 | " y='petal width (cm)')"
156 | ]
157 | },
158 | {
159 | "cell_type": "markdown",
160 | "metadata": {},
161 | "source": [
162 | "## Ejercicios\n",
163 | "\n",
164 | "1. Crea un nuevo _notebook_ y añádele bloques de texto y código.\n",
165 | "2. Consulta los atajos de teclado de Jupiter (botón con la imagen de un teclado en el menú) y familiarízate (y usa) los más comunes (crear bloque antes/después, borrar bloque, cambiar el tipo de bloque, ejecutar bloque, etc.)."
166 | ]
167 | }
168 | ],
169 | "metadata": {
170 | "kernelspec": {
171 | "display_name": "libropython",
172 | "language": "python",
173 | "name": "libropython"
174 | },
175 | "language_info": {
176 | "codemirror_mode": {
177 | "name": "ipython",
178 | "version": 3
179 | },
180 | "file_extension": ".py",
181 | "mimetype": "text/x-python",
182 | "name": "python",
183 | "nbconvert_exporter": "python",
184 | "pygments_lexer": "ipython3",
185 | "version": "3.7.3"
186 | }
187 | },
188 | "nbformat": 4,
189 | "nbformat_minor": 2
190 | }
191 |
--------------------------------------------------------------------------------
/notebooks/04_apis.ipynb:
--------------------------------------------------------------------------------
1 | {
2 | "cells": [
3 | {
4 | "cell_type": "markdown",
5 | "metadata": {},
6 | "source": [
7 | "# Introducción a las APIs\n",
8 | "\n",
9 | "Las [APIs](https://en.wikipedia.org/wiki/Application_programming_interface) (Application Programming Interface) se utilizan de manera habitual para acceder a datos, servicios o facilitar la comunicación entre programas.\n",
10 | "\n",
11 | "Son muy útiles en los siguientes casos:\n",
12 | "\n",
13 | "* Los datos cambian rápidamente. Por ejemplo, predicciones metereológicas a corto plazo, o el estado actual de la bolsa. En estos casos, no tiene sentido tener un dataset estático que regenerar continuamente.\n",
14 | "* Necesitamos una parte pequeña de un dataset mucho más grande. Por ejemplo, vamos a analizar los tweets de una determinada cuenta. Sería innecesariamente costo tener que descargarse la base de datos de Twitter completa para consultar un subconjunto muy pequeño.\n",
15 | "* Para consumir un servicio especializado. Por ejemplo, la geocodificación inversa (consiste en un servicio al que le pasas una latitud y longitud y te devuelve la dirección, ciudad, país, ... en la que se encuentra. Para hacerlo por nosotros mismos, necesitaríamos una base geolocalizada global.\n"
16 | ]
17 | },
18 | {
19 | "cell_type": "markdown",
20 | "metadata": {},
21 | "source": [
22 | ""
23 | ]
24 | },
25 | {
26 | "cell_type": "markdown",
27 | "metadata": {},
28 | "source": [
29 | "En realidad, su uso es muy parecido a la consulta de un sitio web desde un explorador. Tanto la API como el sitio web residen en un servidor web remoto (normalmente, accesible desde internet) y contestan a las peticiones que hacen los clientes. La gran diferencia reside, principalmente, en el formato de la respuesta:\n",
30 | "\n",
31 | "* Al consultar un sitio web, el resultado se devuelve para que sea interpretable por humanos. Suele estar formado por HTML que el explorador renderiza para nosotros.\n",
32 | "* Al consultar una API, el resultado se devuelve en una forma estructurada para que sea interpretable por otro programa. El formato más habitual es el [JSON](https://en.wikipedia.org/wiki/JSON), aunque existen otros.\n",
33 | "\n",
34 | "Un ejemplo de JSON:"
35 | ]
36 | },
37 | {
38 | "cell_type": "markdown",
39 | "metadata": {},
40 | "source": [
41 | ""
42 | ]
43 | },
44 | {
45 | "cell_type": "markdown",
46 | "metadata": {},
47 | "source": [
48 | "## Peticiones a APIs\n",
49 | "\n",
50 | "Vamos a hacer una petición a una API. Para ello, necesitamos saber:\n",
51 | "\n",
52 | "* El endpoint (url)\n",
53 | "* Si necesita parámetros, cuáles son, y dónde se colocan (en el query string o en el cuerpo de la petición)\n",
54 | "\n",
55 | "Un ejemplo de petición a una API que no necesita parámetros"
56 | ]
57 | },
58 | {
59 | "cell_type": "code",
60 | "execution_count": null,
61 | "metadata": {},
62 | "outputs": [],
63 | "source": [
64 | "import requests"
65 | ]
66 | },
67 | {
68 | "cell_type": "code",
69 | "execution_count": null,
70 | "metadata": {},
71 | "outputs": [],
72 | "source": [
73 | "response = requests.get('https://api.exchangeratesapi.io/latest')"
74 | ]
75 | },
76 | {
77 | "cell_type": "code",
78 | "execution_count": null,
79 | "metadata": {},
80 | "outputs": [],
81 | "source": [
82 | "# Código de estado: 200 indica OK\n",
83 | "\n",
84 | "response.status_code"
85 | ]
86 | },
87 | {
88 | "cell_type": "code",
89 | "execution_count": null,
90 | "metadata": {},
91 | "outputs": [],
92 | "source": [
93 | "# Cabeceras: dan información sobre el servidor, el formato de la respuesta, ...\n",
94 | "\n",
95 | "response.headers"
96 | ]
97 | },
98 | {
99 | "cell_type": "code",
100 | "execution_count": null,
101 | "metadata": {},
102 | "outputs": [],
103 | "source": [
104 | "# Los datos de respuesta, en JSON\n",
105 | "\n",
106 | "response_data = response.json()\n",
107 | "response_data"
108 | ]
109 | },
110 | {
111 | "cell_type": "markdown",
112 | "metadata": {},
113 | "source": [
114 | "La librería parsea el JSON de respuesta automáticamente a una lista de diccionarios (con las anidaciones correspondientes. P.e. podemos extraer campos concretos de esta forma:"
115 | ]
116 | },
117 | {
118 | "cell_type": "code",
119 | "execution_count": null,
120 | "metadata": {},
121 | "outputs": [],
122 | "source": [
123 | "response_data['base']"
124 | ]
125 | },
126 | {
127 | "cell_type": "code",
128 | "execution_count": null,
129 | "metadata": {},
130 | "outputs": [],
131 | "source": [
132 | "response_data['rates']['AUD']"
133 | ]
134 | },
135 | {
136 | "cell_type": "code",
137 | "execution_count": null,
138 | "metadata": {},
139 | "outputs": [],
140 | "source": [
141 | "response_data['rates']['USD']"
142 | ]
143 | },
144 | {
145 | "cell_type": "markdown",
146 | "metadata": {},
147 | "source": [
148 | "## Códigos de respuesta\n",
149 | "\n",
150 | "El _status code_ nos indica si ha ido bien o no la petición. Además, en caso de error, nos da información sobre la causa de este. Los más utilizados son:\n",
151 | "\n",
152 | "* 200: la petición ha ido bien\n",
153 | "* 301: el servidor está redireccionando la petición a otro\n",
154 | "* 401: error de autenticación\n",
155 | "* 400: la petición es incorrecta (p.e. porque falta algún parámetro o están mal formados)\n",
156 | "* 403: prohibido, no tienes permisos suficientes\n",
157 | "* 404: el recurso consultado no existe\n",
158 | "* 500: el servidor ha dado un error inesperado\n",
159 | "\n",
160 | "Puedes ver la lista completa [aquí](https://en.wikipedia.org/wiki/List_of_HTTP_status_codes)"
161 | ]
162 | },
163 | {
164 | "cell_type": "markdown",
165 | "metadata": {},
166 | "source": [
167 | "## Verbos\n",
168 | "\n",
169 | "Las peticiones a las APIs usan verbos. En el ejemplo de antes, hemos utilizado `GET`. Además, este verbo es el que se usa por defecto a través del explorador.\n",
170 | "\n",
171 | "Los más comunes y el uso que se les suele dar son:\n",
172 | "\n",
173 | "* GET: para consulta\n",
174 | "* POST: para insertar un nuevo dato o disparar una acción\n",
175 | "* PUT: para actualizar un registro\n",
176 | "* DELETE: para eliminar un registro"
177 | ]
178 | },
179 | {
180 | "cell_type": "markdown",
181 | "metadata": {},
182 | "source": [
183 | "## Parámetros\n",
184 | "\n",
185 | "Los parámetros que incluimos en la petición pueden ir de formas diversas:\n",
186 | "\n",
187 | "* Como parte de la URL. P.e. `https://api.exchangeratesapi.io/2010-04-01`\n",
188 | "* Como parte del query string. La URL y su query string se separan con el símbolo `?`, y tienen la forma `clave=valor`. P.e. `https://api.exchangeratesapi.io/latest?base=USD`. Este es el lugar habitual de los parámetros en las peticiones `GET`.\n",
189 | "* En el cuerpo de la petición. Es el lugar habitual de los parámetros en las peticiones `POST` y `PUT`.\n",
190 | "\n",
191 | "Un ejemplo de petición `POST` con parámetros en el cuerpo de la petición:"
192 | ]
193 | },
194 | {
195 | "cell_type": "code",
196 | "execution_count": null,
197 | "metadata": {},
198 | "outputs": [],
199 | "source": [
200 | "response = requests.post('https://httpbin.org/post', data={'clave': 'valor'})\n",
201 | "response.json()"
202 | ]
203 | },
204 | {
205 | "cell_type": "markdown",
206 | "metadata": {},
207 | "source": [
208 | "Un ejemplo similar, pero enviando los parámetros en el cuerpo de la petición __en formato JSON__:"
209 | ]
210 | },
211 | {
212 | "cell_type": "code",
213 | "execution_count": null,
214 | "metadata": {},
215 | "outputs": [],
216 | "source": [
217 | "response = requests.post('https://httpbin.org/post', json={'clave': 'valor'})\n",
218 | "response.json()"
219 | ]
220 | },
221 | {
222 | "cell_type": "markdown",
223 | "metadata": {},
224 | "source": [
225 | "### Ejercicio\n",
226 | "\n",
227 | "Investiga en la documentación de la librería [requests](http://www.python-requests.org/en/latest/) cómo pasar parámetros en el query string. También consulta la documentación de la API [exchangeratesapi](https://exchangeratesapi.io/).\n",
228 | "\n",
229 | "Con esta información, extrae el valor actual de la conversión de la libra esterlina `GBP` al resto de monedas.\n",
230 | "\n",
231 | "*Nota*: hazlo sin poner manualmente el query string en la URL"
232 | ]
233 | },
234 | {
235 | "cell_type": "code",
236 | "execution_count": null,
237 | "metadata": {},
238 | "outputs": [],
239 | "source": []
240 | },
241 | {
242 | "cell_type": "markdown",
243 | "metadata": {},
244 | "source": [
245 | "### Ejercicio\n",
246 | "\n",
247 | "También sobre la API de `exchangeratesapi`, consulta el histórico disponible del valor entre dólares americanos y libras entre el 15 de agosto y 15 de septiembre de 2018"
248 | ]
249 | },
250 | {
251 | "cell_type": "code",
252 | "execution_count": null,
253 | "metadata": {},
254 | "outputs": [],
255 | "source": []
256 | },
257 | {
258 | "cell_type": "markdown",
259 | "metadata": {},
260 | "source": [
261 | "### Ejercicio\n",
262 | "\n",
263 | "Consulta la documentación de estas dos APIs:\n",
264 | "\n",
265 | "* [Nominatim - reverse geocoding](http://wiki.openstreetmap.org/wiki/Nominatim#Reverse_Geocoding)\n",
266 | "* [UK Police - crimes at location](https://data.police.uk/docs/method/crimes-at-location)\n",
267 | "\n",
268 | "Primero, consulta a la API de Nominatim para conocer cuál es la dirección asociada a estas coordenadas:\n",
269 | "\n",
270 | "* Latitud: 51.4965946\n",
271 | "* Longitud: -0.1436476\n",
272 | "\n",
273 | "El resultado debe estar en formato JSON."
274 | ]
275 | },
276 | {
277 | "cell_type": "code",
278 | "execution_count": null,
279 | "metadata": {},
280 | "outputs": [],
281 | "source": []
282 | },
283 | {
284 | "cell_type": "markdown",
285 | "metadata": {},
286 | "source": [
287 | "Luego, consulta a la API de la policía de UK los crímenes que se cometieron en esa localización en julio de 2018"
288 | ]
289 | },
290 | {
291 | "cell_type": "code",
292 | "execution_count": null,
293 | "metadata": {},
294 | "outputs": [],
295 | "source": []
296 | },
297 | {
298 | "cell_type": "markdown",
299 | "metadata": {},
300 | "source": [
301 | "## Ejercicio swapi\n",
302 | "\n",
303 | "Haz una petición a la API de [swapi](https://swapi.co/documentation) con una búsqueda de todos los personajes que tengan el apellido `skywalker`. Examina la respuesta e imprime los nombres resultantes utilizando una `list comprehension` (no utilices bucles)."
304 | ]
305 | },
306 | {
307 | "cell_type": "code",
308 | "execution_count": null,
309 | "metadata": {},
310 | "outputs": [],
311 | "source": []
312 | },
313 | {
314 | "cell_type": "markdown",
315 | "metadata": {},
316 | "source": [
317 | "## Ejercicio libre\n",
318 | "\n",
319 | "Revisa [este listado](https://github.com/toddmotto/public-apis) de APIs públicas. Elige alguna que te llame la atención, consulta su documentación y extrae información que sea de tu interés."
320 | ]
321 | },
322 | {
323 | "cell_type": "code",
324 | "execution_count": null,
325 | "metadata": {},
326 | "outputs": [],
327 | "source": []
328 | },
329 | {
330 | "cell_type": "markdown",
331 | "metadata": {},
332 | "source": [
333 | "## Referencia\n",
334 | "\n",
335 | "* Documentación [requests](http://www.python-requests.org/en/latest/)\n",
336 | "* Documentación [API citybik](https://api.citybik.es/v2/)\n",
337 | "* Documentación [folium](http://python-visualization.github.io/folium/quickstart.html)"
338 | ]
339 | },
340 | {
341 | "cell_type": "code",
342 | "execution_count": null,
343 | "metadata": {},
344 | "outputs": [],
345 | "source": []
346 | }
347 | ],
348 | "metadata": {
349 | "kernelspec": {
350 | "display_name": "libropython",
351 | "language": "python",
352 | "name": "libropython"
353 | },
354 | "language_info": {
355 | "codemirror_mode": {
356 | "name": "ipython",
357 | "version": 3
358 | },
359 | "file_extension": ".py",
360 | "mimetype": "text/x-python",
361 | "name": "python",
362 | "nbconvert_exporter": "python",
363 | "pygments_lexer": "ipython3",
364 | "version": "3.7.6"
365 | }
366 | },
367 | "nbformat": 4,
368 | "nbformat_minor": 2
369 | }
370 |
--------------------------------------------------------------------------------
/notebooks/05_web_scraping.ipynb:
--------------------------------------------------------------------------------
1 | {
2 | "cells": [
3 | {
4 | "cell_type": "markdown",
5 | "metadata": {},
6 | "source": [
7 | "# Web scraping\n",
8 | "\n",
9 | "Cuando necesitamos extraer información publicada en internet, lo ideal es consultar una API, porque:\n",
10 | "\n",
11 | "* Las respuestas contienen información estructurada\n",
12 | "* En general, el propio servicio nos da documentación sobre cómo hacer peticiones y qué tipo de información podemos solicitar\n",
13 | "\n",
14 | "Pero muchas veces nos encontramos con información en páginas web (en formato [HTML](https://es.wikipedia.org/wiki/HTML)) que nos gustaría obtener, pero sin API disponible.\n",
15 | "\n",
16 | "Estas páginas `HTML` tienen cierta estructura, aunque con ciertos contras:\n",
17 | "\n",
18 | "* Es más compleja, puede tener muchos niveles de anidamiento\n",
19 | "* Es inestable. Están diseñadas para que se vean bien desde el explorador, no para guardar una estructura de consulta. De un día para otro, puede verse alterada por la incorporación de nuevos elementos visuales u otros motivos.\n",
20 | "* Puede ser modificada por código cliente (javascript) en diferentes momentos: al cargar la página, al interaccionar con algún elemento, ..."
21 | ]
22 | },
23 | {
24 | "cell_type": "markdown",
25 | "metadata": {},
26 | "source": [
27 | "### Ejercicio\n",
28 | "\n",
29 | "Desde tu explorador, consulta el código fuente de una página de tu interés. Por ejemplo, para hacerlo en chrome:\n",
30 | "\n",
31 | "* Accede a la página, p.e. [esta](https://es.wikipedia.org/wiki/HTML).\n",
32 | "* Haz click derecho y pulsa `View page source`. Otra opción es pulsar `Inspect`, que además abrirá las herramientas de desarrollador de Chrome, muy útiles para navegar por la estructura de la página."
33 | ]
34 | },
35 | {
36 | "cell_type": "markdown",
37 | "metadata": {},
38 | "source": [
39 | "## Scraping de elementos html\n",
40 | "\n",
41 | "La librería que vamos a utilizar es [Beautiful Soup](https://pypi.org/project/beautifulsoup4/). Nos permite buscar elementos y navegar por la estructura del html fácilmente.\n",
42 | "\n",
43 | "Vemos dos ejemplos, uno sobre milanuncios y otro sobre spotahome, por si nos _banean_.\n",
44 | "\n",
45 | "### milanuncios\n",
46 | "\n",
47 | "Imaginemos que queremos comparar precios de un determinado modelo de motocicleta de segunda mano. P.e. con [esta búsqueda](https://www.milanuncios.com/motos-de-carretera/duke-390.htm) en milanuncios.\n",
48 | "\n",
49 | "La mayor parte de las webs con contenido interesante (que hacen negocio gracias a su contenido) intentan protegerlas para evitar que les hagan scraping. Hay varias formas de simular que nuestro script es humano en lugar de un bot, algunas más básicas y otras más complejas. Por ahora, vamos a sobrescribir nuestro _user agent_. Es una cabecera que va en las peticiones diciendo quiénes somos (p.e. qué tipo de explorador usamos). Por defecto, la librería `requests` que vamos a usar, avisa que somos un bot. Vamos a sobrescribir esta cabecera para _disimular_ un poco. Podemos copiar uno popular de (aquí)[https://developers.whatismybrowser.com/useragents/explore/software_type_specific/web-browser/]."
50 | ]
51 | },
52 | {
53 | "cell_type": "code",
54 | "execution_count": null,
55 | "metadata": {},
56 | "outputs": [],
57 | "source": [
58 | "import requests\n",
59 | "from bs4 import BeautifulSoup"
60 | ]
61 | },
62 | {
63 | "cell_type": "code",
64 | "execution_count": null,
65 | "metadata": {},
66 | "outputs": [],
67 | "source": [
68 | "headers = {\n",
69 | " 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36'\n",
70 | "}"
71 | ]
72 | },
73 | {
74 | "cell_type": "markdown",
75 | "metadata": {},
76 | "source": [
77 | "Ahora, nos descargamos el html con `requests`."
78 | ]
79 | },
80 | {
81 | "cell_type": "code",
82 | "execution_count": null,
83 | "metadata": {},
84 | "outputs": [],
85 | "source": [
86 | "page = requests.get('https://www.milanuncios.com/motos-de-carretera/duke-390.htm', headers=headers)\n",
87 | "page"
88 | ]
89 | },
90 | {
91 | "cell_type": "markdown",
92 | "metadata": {},
93 | "source": [
94 | "Podemos ver el contenido examinando la propiedad `content`."
95 | ]
96 | },
97 | {
98 | "cell_type": "code",
99 | "execution_count": null,
100 | "metadata": {},
101 | "outputs": [],
102 | "source": [
103 | "page.content"
104 | ]
105 | },
106 | {
107 | "cell_type": "markdown",
108 | "metadata": {},
109 | "source": [
110 | "Este contenido es solo texto, no tiene estructura. Aún no podemos hacer búsquedas ni navegar por él.\n",
111 | "\n",
112 | "Para hacerlo, creamos una instancia de `Beautiful Soup` y lo parseamos"
113 | ]
114 | },
115 | {
116 | "cell_type": "code",
117 | "execution_count": null,
118 | "metadata": {},
119 | "outputs": [],
120 | "source": [
121 | "soup = BeautifulSoup(page.content, 'html.parser')"
122 | ]
123 | },
124 | {
125 | "cell_type": "markdown",
126 | "metadata": {},
127 | "source": [
128 | "#### SOS: ¡me han baneado!\n",
129 | "\n",
130 | "Si estamos haciendo esto en clase, es muy probable que a la mayoría, nos detecten como bots y nos baneen. Esto pasa porque somos 30 o 40 personas, haciendo la misma petición desde la misma IP y con el mismo user agent.\n",
131 | "\n",
132 | "Puedes usar el html offline que hay en `dat` para seguir con el ejercicio. Descomenta el siguiente código y sigue adelante"
133 | ]
134 | },
135 | {
136 | "cell_type": "code",
137 | "execution_count": null,
138 | "metadata": {},
139 | "outputs": [],
140 | "source": [
141 | "# Descomenta esto si te han baneado\n",
142 | "# with open('dat/milanuncios.html') as f:\n",
143 | "# soup = BeautifulSoup(f, 'html.parser')"
144 | ]
145 | },
146 | {
147 | "cell_type": "markdown",
148 | "metadata": {},
149 | "source": [
150 | "Sobre esto, podemos hacer búsquedas con `find` y `find_all` (o `select_one` y `select` si prefieres utilizar [selectores css](https://en.wikipedia.org/wiki/Cascading_Style_Sheets#Selector)). Sobre nuestro ejemplo, vamos a buscar todos los precios. Examinando el código fuente, vemos que son etiquetas `div` con clase `aditem-price`."
151 | ]
152 | },
153 | {
154 | "cell_type": "code",
155 | "execution_count": null,
156 | "metadata": {},
157 | "outputs": [],
158 | "source": [
159 | "div_precios = soup.find_all('div', class_='aditem-price')\n",
160 | "div_precios"
161 | ]
162 | },
163 | {
164 | "cell_type": "markdown",
165 | "metadata": {},
166 | "source": [
167 | "`find_all` devuelve una lista de elementos. Sobre ellos, podemos hacer:\n",
168 | "\n",
169 | "`children` para sacar el listado de todos los hijos."
170 | ]
171 | },
172 | {
173 | "cell_type": "code",
174 | "execution_count": null,
175 | "metadata": {},
176 | "outputs": [],
177 | "source": [
178 | "list(div_precios[0].children)"
179 | ]
180 | },
181 | {
182 | "cell_type": "markdown",
183 | "metadata": {},
184 | "source": [
185 | "`get_text()` para sacar el texto de todos los hijos"
186 | ]
187 | },
188 | {
189 | "cell_type": "code",
190 | "execution_count": null,
191 | "metadata": {},
192 | "outputs": [],
193 | "source": [
194 | "div_precios[0].get_text()"
195 | ]
196 | },
197 | {
198 | "cell_type": "markdown",
199 | "metadata": {},
200 | "source": [
201 | "Por tanto, para sacar el listado de todos los precios podemos hacer:"
202 | ]
203 | },
204 | {
205 | "cell_type": "code",
206 | "execution_count": null,
207 | "metadata": {},
208 | "outputs": [],
209 | "source": [
210 | "[list(div_precio.children)[0] for div_precio in div_precios]"
211 | ]
212 | },
213 | {
214 | "cell_type": "markdown",
215 | "metadata": {},
216 | "source": [
217 | "Tienes más funciones útiles con pequeños ejemplos [aquí](http://akul.me/blog/2016/beautifulsoup-cheatsheet/)"
218 | ]
219 | },
220 | {
221 | "cell_type": "markdown",
222 | "metadata": {},
223 | "source": [
224 | "### Ejercicio\n",
225 | "\n",
226 | "Crea un dataframe de pandas en el que cada fila sea un anuncio y tenga como columnas información que consideres relevante: precio, kilómetros, año, cilindrada, texto del anuncio, ..."
227 | ]
228 | },
229 | {
230 | "cell_type": "code",
231 | "execution_count": null,
232 | "metadata": {},
233 | "outputs": [],
234 | "source": []
235 | },
236 | {
237 | "cell_type": "markdown",
238 | "metadata": {},
239 | "source": [
240 | "### Ejercicio\n",
241 | "\n",
242 | "Modifica el código anterior para que, además de bajarse la página actual, navegue por el resto de páginas e incorpore también esos anuncios a tu dataframe."
243 | ]
244 | },
245 | {
246 | "cell_type": "code",
247 | "execution_count": null,
248 | "metadata": {},
249 | "outputs": [],
250 | "source": []
251 | },
252 | {
253 | "cell_type": "markdown",
254 | "metadata": {},
255 | "source": [
256 | "## Scraping de tablas\n",
257 | "\n",
258 | "A menudo, la información que nos interesa descargar está en tablas y nuestro objetivo es importarlas en tablas de Pandas. Esta conversión suele exigir la manipulación del texto, números y fechas contenidas en la tabla original, lo que nos obligará a repasar cómo realizar esas operaciones y aplicarlas a filas y columnas de las tablas.\n",
259 | "\n",
260 | "La estructura que suelen tener la tablas en `html` es:\n",
261 | "\n",
262 | "```\n",
263 | "
\n",
264 | " \n",
265 | " \n",
266 | " Columna A | \n",
267 | " Columna B | \n",
268 | "
\n",
269 | " \n",
270 | " \n",
271 | " \n",
272 | " A1 | \n",
273 | " B1 | \n",
274 | "
\n",
275 | " \n",
276 | " A2 | \n",
277 | " B2 | \n",
278 | "
\n",
279 | " \n",
280 | "
\n",
281 | "```"
282 | ]
283 | },
284 | {
285 | "cell_type": "markdown",
286 | "metadata": {},
287 | "source": [
288 | "Necesitaremos los siguientes módulos además de `requests` y `BeautifulSoup` importados anteriormente:"
289 | ]
290 | },
291 | {
292 | "cell_type": "code",
293 | "execution_count": null,
294 | "metadata": {},
295 | "outputs": [],
296 | "source": [
297 | "import pandas as pd\n",
298 | "import re"
299 | ]
300 | },
301 | {
302 | "cell_type": "markdown",
303 | "metadata": {},
304 | "source": [
305 | "Primero, hacemos una petición para descargar la página de interés (que contiene las cotizaciones de las acciones del IBEX 35 en tiempo _casi_ real)."
306 | ]
307 | },
308 | {
309 | "cell_type": "code",
310 | "execution_count": null,
311 | "metadata": {},
312 | "outputs": [],
313 | "source": [
314 | "base_url = \"https://www.eleconomista.es/indice/IBEX-35\"\n",
315 | "res = requests.get(base_url)\n",
316 | "contenido = res.content"
317 | ]
318 | },
319 | {
320 | "cell_type": "markdown",
321 | "metadata": {},
322 | "source": [
323 | "La siguiente línea procesa el HTML de la página que hemos descargado:"
324 | ]
325 | },
326 | {
327 | "cell_type": "code",
328 | "execution_count": null,
329 | "metadata": {},
330 | "outputs": [],
331 | "source": [
332 | "soup = BeautifulSoup(contenido, \"html.parser\")"
333 | ]
334 | },
335 | {
336 | "cell_type": "markdown",
337 | "metadata": {},
338 | "source": [
339 | "Una vez procesado el HTML, es posible buscar elementos dentro de él. En particular, podemos buscar los elementos de tipo `table`, es decir, tablas."
340 | ]
341 | },
342 | {
343 | "cell_type": "code",
344 | "execution_count": null,
345 | "metadata": {},
346 | "outputs": [],
347 | "source": [
348 | "tablas = soup.find_all('table')"
349 | ]
350 | },
351 | {
352 | "cell_type": "markdown",
353 | "metadata": {},
354 | "source": [
355 | "El objeto `tablas` contiene todas las tablas presentes en la página. Hay que tener cuidado con dichas tablas porque muchas páginas utilizan elementos de tipo `table` para estructurar el contenido. Por eso, en algunas páginas, aunque parezca haber una única tabla, puede haber otras con una información no interesante que toca descartar."
356 | ]
357 | },
358 | {
359 | "cell_type": "code",
360 | "execution_count": null,
361 | "metadata": {},
362 | "outputs": [],
363 | "source": [
364 | "len(tablas)"
365 | ]
366 | },
367 | {
368 | "cell_type": "markdown",
369 | "metadata": {},
370 | "source": [
371 | "Podemos extraer las filas de todas estas tablas"
372 | ]
373 | },
374 | {
375 | "cell_type": "code",
376 | "execution_count": null,
377 | "metadata": {},
378 | "outputs": [],
379 | "source": [
380 | "lineas = [x for tabla in tablas for x in tabla.find_all('tr')]"
381 | ]
382 | },
383 | {
384 | "cell_type": "markdown",
385 | "metadata": {},
386 | "source": [
387 | "para luego extraer los contenidos de cada fila individualmente haciendo"
388 | ]
389 | },
390 | {
391 | "cell_type": "code",
392 | "execution_count": null,
393 | "metadata": {},
394 | "outputs": [],
395 | "source": [
396 | "datos = [[x.text for x in linea.find_all('td')] for linea in lineas]"
397 | ]
398 | },
399 | {
400 | "cell_type": "markdown",
401 | "metadata": {},
402 | "source": [
403 | "Podemos inspeccionar parte del objeto resultante:"
404 | ]
405 | },
406 | {
407 | "cell_type": "code",
408 | "execution_count": null,
409 | "metadata": {},
410 | "outputs": [],
411 | "source": [
412 | "datos[0:3]"
413 | ]
414 | },
415 | {
416 | "cell_type": "markdown",
417 | "metadata": {},
418 | "source": [
419 | "Vemos que hay filas que contienen la información de interés junto con otras que contienen cabeceras y otra información irrelevante. En general, la situación puede ser más complicada y se hace necesario estudiar el objeto `tablas` para seleccionar la de interés.\n",
420 | "\n",
421 | "En nuestro caso, podemos filtrar las líneas menos relevantes así:"
422 | ]
423 | },
424 | {
425 | "cell_type": "code",
426 | "execution_count": null,
427 | "metadata": {},
428 | "outputs": [],
429 | "source": [
430 | "datos = [x for x in datos if len(x) > 0]"
431 | ]
432 | },
433 | {
434 | "cell_type": "markdown",
435 | "metadata": {},
436 | "source": [
437 | "Finalmente, podemos crear una tabla de Pandas:"
438 | ]
439 | },
440 | {
441 | "cell_type": "code",
442 | "execution_count": null,
443 | "metadata": {},
444 | "outputs": [],
445 | "source": [
446 | "datos = pd.DataFrame(datos)\n",
447 | "datos"
448 | ]
449 | },
450 | {
451 | "cell_type": "markdown",
452 | "metadata": {},
453 | "source": [
454 | "#### Ejercicio\n",
455 | "\n",
456 | "Usa los elementos `th` de la primera fila de las tablas para extraer nombres para las columnas de la tabla. "
457 | ]
458 | },
459 | {
460 | "cell_type": "code",
461 | "execution_count": null,
462 | "metadata": {},
463 | "outputs": [],
464 | "source": []
465 | },
466 | {
467 | "cell_type": "markdown",
468 | "metadata": {},
469 | "source": [
470 | "#### Ejercicio\n",
471 | "\n",
472 | "Elimina las columnas irrelevantes y cambia los nombres de las columnas por otros breves y sin caracteres extraños o que dificulten el posproceso."
473 | ]
474 | },
475 | {
476 | "cell_type": "code",
477 | "execution_count": null,
478 | "metadata": {},
479 | "outputs": [],
480 | "source": []
481 | },
482 | {
483 | "cell_type": "markdown",
484 | "metadata": {},
485 | "source": [
486 | "#### Ejercicio\n",
487 | "\n",
488 | "Cambia el formato de las columnas adecuadamente: convierte a numéricas, etc., las columnas que lo requieran."
489 | ]
490 | },
491 | {
492 | "cell_type": "code",
493 | "execution_count": null,
494 | "metadata": {},
495 | "outputs": [],
496 | "source": []
497 | },
498 | {
499 | "cell_type": "markdown",
500 | "metadata": {},
501 | "source": [
502 | "## Riesgos del scraping\n",
503 | "\n",
504 | "El scraping es una técnica potente pero tiene varios contras:\n",
505 | "\n",
506 | "* Implica mayor tiempo de desarrollo y mayor esfuerzo en la limpieza de datos (en comparación con otras fuentes como APIs, BDs, ...)\n",
507 | "* Si hay que scrapear gran cantidad de páginas, es lento\n",
508 | "* Los servidores objetivo de nuestro scraping pueden tener técnicas para evitarlo. Por ejemplo, bloquear la IP temporalmente o introducir delays en las respuestas si hacemos muchas peticiones en poco tiempo. Esto pasa especialmente en las grandes webs recelosas de sus datos (p.e. linkedin, amazon, ...).\n",
509 | "* El código de scraping escrito hoy puede no funcionar mañana, si la web destino cambia nombres, etiquetas o estructura. Si se sube a producción para lanzarlo periódicamente, hay que ser conscientes de que en algún momento fallará, y establecer mecanismos de alerta\n",
510 | "\n",
511 | "## Javascript\n",
512 | "\n",
513 | "Es posible que te encuentres con algún caso en el que no puedas descargar tal cual el html y parsearlo, principalmente por dos motivos:\n",
514 | "\n",
515 | "* La estructura de la página se genera parcial o totalmente en cliente\n",
516 | "* Debemos interactuar con algún elemento para mostrar la información que queremos (p.e. completar un campo de búsuqeda, hacer click en algún botón, ...)\n",
517 | "\n",
518 | "En estos casos, hay que ejecutar en un navegador local el código javascript de la página destino. Para esta tarea, puedes utilizar [Selenium]().\n",
519 | "\n",
520 | "[Aquí](https://medium.freecodecamp.org/better-web-scraping-in-python-with-selenium-beautiful-soup-and-pandas-d6390592e251) un post con un ejemplo de uso."
521 | ]
522 | },
523 | {
524 | "cell_type": "code",
525 | "execution_count": null,
526 | "metadata": {},
527 | "outputs": [],
528 | "source": []
529 | }
530 | ],
531 | "metadata": {
532 | "kernelspec": {
533 | "display_name": "libropython",
534 | "language": "python",
535 | "name": "libropython"
536 | },
537 | "language_info": {
538 | "codemirror_mode": {
539 | "name": "ipython",
540 | "version": 3
541 | },
542 | "file_extension": ".py",
543 | "mimetype": "text/x-python",
544 | "name": "python",
545 | "nbconvert_exporter": "python",
546 | "pygments_lexer": "ipython3",
547 | "version": "3.7.3"
548 | }
549 | },
550 | "nbformat": 4,
551 | "nbformat_minor": 2
552 | }
553 |
--------------------------------------------------------------------------------
/notebooks/06_intro_visualizacion.Rmd:
--------------------------------------------------------------------------------
1 | ---
2 | title: "Visualización de datos"
3 | author: "Luz Frias"
4 | output:
5 | revealjs::revealjs_presentation:
6 | pandoc_args: [ "--slide-level", "1" ]
7 | transition: none
8 | background_transition: none
9 | reveal_options:
10 | controls: false
11 | width: 1200
12 | ---
13 |
14 | ## Introducción visualización de datos
15 |
16 | * Es parte del análisis exploratorio de los datos
17 | * De un vistazo, podemos entender:
18 |
19 | * Distribuciones
20 | * Relaciones entre atributos
21 | * ...
22 |
23 | ## Evitar la distorsión de los datos
24 |
25 | 
26 | 
27 |
28 | ## El contexto de los gráficos
29 |
30 | * El gráfico debe servir para apoyar una serie de conclusiones / explicaciones a lo observado
31 |
32 | 
33 |
34 | ## Un mismo gráfico para exponer varios niveles de detalle
35 |
36 | * Combinando formas, colores y posición podemos describir varias dimensiones de la información de un solo vistazo
37 |
38 | 
39 |
40 | * La dimensión tiempo en los gráficos: [ejemplo](https://www.visualcapitalist.com/animation-the-worlds-10-largest-economies-by-gdp-1960-today/)
41 |
42 | ## Los colores
43 |
44 | * Es importante escoger una escala que refleje la naturaleza de los datos:
45 |
46 | * Secuencial: refleja progresivamente las diferencias entre poco y mucho. Por ejemplo, los ingresos mensuales medios por barrio.
47 | * Divergente: tiene naturaleza secuencial, pero interesa destacar los extremos y el punto medio. Por ejemplo, el mapa de intención de voto demócrata vs republicano en EEUU.
48 | * Cualitativa: refleja categóricas sin orden. Por ejemplo, hombres vs mujeres.
49 |
50 | * Es muy complicado elegir bien una escala. Usa herramientas que ya las proporcionan, como [colorbrewer](http://colorbrewer2.org/)
51 |
52 | ## La escalas
53 |
54 | * Naturaleza de la comparación: normal, logarítmica, ... [Ejemplo](https://www.researchtrends.com/wp-content/uploads/2012/09/KL2-log-scale.jpg)
55 | * El cero: ¿comparaciones absolutas o relativas? [Ejemplo](http://www.datapine.com/blog/wp-content/uploads/2014/06/Same-Data-Different-Y-Axis-Data-Visualization-Designed-to-Mislead.png)
56 | * Varias escalas: deben usarse bien para evitar confusiones. [Ejemplo](https://www.elsevier.com/__data/assets/image/0015/35043/Figure-2.jpg)
57 |
58 | ## La importancia del tipo de gráfico
59 |
60 | * [Chart suggestion](https://apandre.files.wordpress.com/2011/02/chartchooserincolor.jpg)
61 |
62 | ## Ejemplos buenos gráficos: ¿por qué?
63 |
64 | * [Servicio militar EEUU](http://www.npr.org/2011/07/03/137536111/by-the-numbers-todays-military)
65 | * [Cartograma elecciones UK](http://www.viewsoftheworld.net/wp-content/uploads/2015/05/ukelection2015_mapviews.jpg)
66 | * [Interactivo rutinas](https://podio.com/site/creative-routines)
67 | * [Animación envejecimiento población](https://www.visualcapitalist.com/us-population-pyramid-1980-2050/)
68 | * [Tendencias twitter](http://echeloninsights.com/wp-content/uploads/2014/12/theyearinnews20141.png)
69 | * [Pictoline](https://twitter.com/pictoline/status/796541916397576194?lang=en)
70 | * [Elecciones catalanas](http://www.huffingtonpost.es/2015/09/28/elecciones-catalanas-twitter_n_8206438.html)
71 | * [Redes sociales y grafos](https://twitter.com/graphext/status/748119214431543296)
72 |
73 | ## Ejemplos malos gráficos: ¿qué cambiarías?
74 |
75 | * [Categorías empresas](https://www.datanalytics.com/2011/11/08/bump-charts-para-comparar-graficamente-proporciones-entre-periodos/)
76 | * [IEH](https://www.datanalytics.com/2015/04/23/valores-diferentes/)
77 | * [Ejes](https://www.datanalytics.com/2013/09/05/donde-deberian-comenzar-los-ejes/)
78 | * [Pomelos](https://www.datanalytics.com/2013/08/27/el-pomelazo-del-csic/)
79 | * [Proporciones](https://www.datanalytics.com/2013/03/19/mapas-realmente-necesarios/)
80 | * [El engaño](https://www.datanalytics.com/2011/01/31/un-grafico-enganabobos/)
81 | * [Blog dedicado a los gráficos sin sentido](http://viz.wtf/)
82 |
83 |
--------------------------------------------------------------------------------
/notebooks/07_graficos.ipynb:
--------------------------------------------------------------------------------
1 | {
2 | "cells": [
3 | {
4 | "cell_type": "markdown",
5 | "metadata": {},
6 | "source": [
7 | "# Graficos"
8 | ]
9 | },
10 | {
11 | "cell_type": "markdown",
12 | "metadata": {
13 | "collapsed": true
14 | },
15 | "source": [
16 | "## Librerías\n",
17 | "\n",
18 | "Existen varias librerías en Python para crear gráficos. Algunas de las más populares y sus utilidades principales son:\n",
19 | "\n",
20 | "* `matplotlib`: gráficos estáticos y básicos, interfaz de bajo nivel.\n",
21 | "* `pandas plot`: construido sobre matplotlib, simplifica la construcción de gráficos basados en DataFrames.\n",
22 | "* `seaborn`: construido sobre matplotlib, proporciona una interfaz de más alto nivel.\n",
23 | "* `bokeh`: gráficos html, añadiendo cierto nivel de interacción.\n",
24 | "* `dash`: para dashboards, con selectores y otros elementos de interacción. Es el *shiny de Python*."
25 | ]
26 | },
27 | {
28 | "cell_type": "markdown",
29 | "metadata": {},
30 | "source": [
31 | "## Pandas plot\n",
32 | "\n",
33 | "Si ya tenemos los datos en un `DataFrame` y no necesitamos mucha personalización, nos vale el [`plot`](https://pandas.pydata.org/pandas-docs/stable/generated/pandas.DataFrame.plot.html) que trae `pandas`."
34 | ]
35 | },
36 | {
37 | "cell_type": "code",
38 | "execution_count": null,
39 | "metadata": {},
40 | "outputs": [],
41 | "source": [
42 | "%matplotlib inline"
43 | ]
44 | },
45 | {
46 | "cell_type": "markdown",
47 | "metadata": {},
48 | "source": [
49 | "Un `plot` sobre el DataFrame nos pinta todas las columnas."
50 | ]
51 | },
52 | {
53 | "cell_type": "code",
54 | "execution_count": null,
55 | "metadata": {},
56 | "outputs": [],
57 | "source": [
58 | "import pandas as pd\n",
59 | "\n",
60 | "venta = pd.read_csv('dat/venta-madrid-distritos.csv', index_col=False)\n",
61 | "out = venta.plot(subplots=True)"
62 | ]
63 | },
64 | {
65 | "cell_type": "markdown",
66 | "metadata": {},
67 | "source": [
68 | "En la documentación de [`plot`](https://pandas.pydata.org/pandas-docs/stable/generated/pandas.DataFrame.plot.html) se indica cómo modificar los parámetros fundamentales del gráfico, como a continuación:"
69 | ]
70 | },
71 | {
72 | "cell_type": "code",
73 | "execution_count": null,
74 | "metadata": {},
75 | "outputs": [],
76 | "source": [
77 | "out = venta.plot(subplots=True, figsize = (15, 10))"
78 | ]
79 | },
80 | {
81 | "cell_type": "markdown",
82 | "metadata": {},
83 | "source": [
84 | "Podemos pintar un gráfico especificando el tipo, el eje x y el eje y. Por ejemplo, para ver la evolución del precio a comienzo de cada año en un distrito concreto."
85 | ]
86 | },
87 | {
88 | "cell_type": "code",
89 | "execution_count": null,
90 | "metadata": {},
91 | "outputs": [],
92 | "source": [
93 | "out = venta[(venta.distrito == 'San Blas') & (venta.quarter == 1)].plot(kind='scatter', x='ano', y='precio')"
94 | ]
95 | },
96 | {
97 | "cell_type": "markdown",
98 | "metadata": {},
99 | "source": [
100 | "Un ejemplo pintando un histograma sobre una de las columnas:"
101 | ]
102 | },
103 | {
104 | "cell_type": "code",
105 | "execution_count": null,
106 | "metadata": {},
107 | "outputs": [],
108 | "source": [
109 | "out = venta[(venta.ano == 2012) & (venta.quarter == 1)].precio.plot(kind='hist')"
110 | ]
111 | },
112 | {
113 | "cell_type": "markdown",
114 | "metadata": {},
115 | "source": [
116 | "Para los histogramas y boxplots tenemos una interfaz más avanzada que podemos usar:\n",
117 | "\n",
118 | "* [`boxplot`](https://pandas.pydata.org/pandas-docs/stable/generated/pandas.DataFrame.boxplot.html)\n",
119 | "* [`hist`](https://pandas.pydata.org/pandas-docs/stable/generated/pandas.DataFrame.hist.html)"
120 | ]
121 | },
122 | {
123 | "cell_type": "markdown",
124 | "metadata": {},
125 | "source": [
126 | "Por ejemplo, para pintar los boxplots de precios por distrito."
127 | ]
128 | },
129 | {
130 | "cell_type": "code",
131 | "execution_count": null,
132 | "metadata": {},
133 | "outputs": [],
134 | "source": [
135 | "out = venta.boxplot('precio', by='distrito', figsize=(15, 5), rot=90)"
136 | ]
137 | },
138 | {
139 | "cell_type": "markdown",
140 | "metadata": {},
141 | "source": [
142 | "#### Ejercicio\n",
143 | "\n",
144 | "Pinta un histograma para todos los precios de comienzo de cada año (primer cuatrimestre) con franjas más estrechas (es decir, más `bins`)"
145 | ]
146 | },
147 | {
148 | "cell_type": "code",
149 | "execution_count": null,
150 | "metadata": {},
151 | "outputs": [],
152 | "source": []
153 | },
154 | {
155 | "cell_type": "markdown",
156 | "metadata": {},
157 | "source": [
158 | "## Seaborn\n",
159 | "\n",
160 | "Un ejemplo de uso de seaborn, para pintar la evolución de precios a comienzo de cada año, usando una línea por distrito:"
161 | ]
162 | },
163 | {
164 | "cell_type": "code",
165 | "execution_count": null,
166 | "metadata": {},
167 | "outputs": [],
168 | "source": [
169 | "import seaborn as sns\n",
170 | "\n",
171 | "out = sns.lineplot(data=venta[venta.quarter == 1],\n",
172 | " x='ano', y='precio', hue='distrito',\n",
173 | " legend=False)"
174 | ]
175 | },
176 | {
177 | "cell_type": "markdown",
178 | "metadata": {},
179 | "source": [
180 | "#### Ejercicio\n",
181 | "\n",
182 | "Pinta con seaborn un gráfico de barras que muestre el precio de cada distrito en el año y cuatrimestre más reciente. Píntalo de forma que los distritos estén ordenados de mayor a menor precio."
183 | ]
184 | },
185 | {
186 | "cell_type": "code",
187 | "execution_count": null,
188 | "metadata": {},
189 | "outputs": [],
190 | "source": []
191 | },
192 | {
193 | "cell_type": "markdown",
194 | "metadata": {},
195 | "source": [
196 | "Puedes consultar la documentación completa de seaborn [aquí](https://seaborn.pydata.org/). O un resumen de las funciones más importantes [aquí](https://s3.amazonaws.com/assets.datacamp.com/blog_assets/Python_Seaborn_Cheat_Sheet.pdf)"
197 | ]
198 | },
199 | {
200 | "cell_type": "markdown",
201 | "metadata": {},
202 | "source": [
203 | "## Bokeh\n",
204 | "\n",
205 | "Podemos pintar el gráfico anterior con `Bokeh`:"
206 | ]
207 | },
208 | {
209 | "cell_type": "code",
210 | "execution_count": null,
211 | "metadata": {},
212 | "outputs": [],
213 | "source": [
214 | "from bokeh.io import output_notebook\n",
215 | "\n",
216 | "output_notebook()"
217 | ]
218 | },
219 | {
220 | "cell_type": "code",
221 | "execution_count": null,
222 | "metadata": {},
223 | "outputs": [],
224 | "source": [
225 | "from bokeh.plotting import figure, show\n",
226 | "from bokeh.models import HoverTool\n",
227 | "from bokeh.palettes import viridis\n",
228 | "\n",
229 | "data = venta[venta.quarter == 1].copy()\n",
230 | "\n",
231 | "# La paleta de colores\n",
232 | "distritos = data.distrito.unique()\n",
233 | "color_palette = viridis(len(distritos))\n",
234 | "color_map = dict(zip(distritos, color_palette))\n",
235 | "\n",
236 | "# Configuración del gráfico: títulos y etiquetas\n",
237 | "p = figure(title = 'Evolución precio de venta')\n",
238 | "p.xaxis.axis_label = 'Año'\n",
239 | "p.yaxis.axis_label = '€ metro cuadrado'\n",
240 | "\n",
241 | "# Por cada distrito, una línea y su hover (popup al pasar el ratón por encima)\n",
242 | "for distrito, group in data.groupby('distrito'):\n",
243 | " line = p.line(group.ano, group.precio, color=color_map[distrito], name=distrito)\n",
244 | " hover = HoverTool(tooltips=[('distrito', distrito),\n",
245 | " ('año', '@x'),\n",
246 | " ('precio', '@y{int}')],\n",
247 | " renderers=[line], toggleable=False)\n",
248 | " p.add_tools(hover)\n",
249 | "\n",
250 | "show(p)"
251 | ]
252 | },
253 | {
254 | "cell_type": "markdown",
255 | "metadata": {},
256 | "source": [
257 | "## Dash\n",
258 | "\n",
259 | "Dash es un framework para construir aplicaciones web de análisis de datos. Usa React con Plotly para el frontend, y Flask para el backend. Nos permite crear fácilmente dashboards complejos únicamente usando Python, sin necesidad de Javascript.\n",
260 | "\n",
261 | "Necesita un servidor que corra la aplicación.\n",
262 | "\n",
263 | "Para ver ejemplos y más información, consulta la [web de Dash](https://plot.ly/products/dash/)"
264 | ]
265 | },
266 | {
267 | "cell_type": "code",
268 | "execution_count": null,
269 | "metadata": {},
270 | "outputs": [],
271 | "source": []
272 | }
273 | ],
274 | "metadata": {
275 | "kernelspec": {
276 | "display_name": "libropython",
277 | "language": "python",
278 | "name": "libropython"
279 | },
280 | "language_info": {
281 | "codemirror_mode": {
282 | "name": "ipython",
283 | "version": 3
284 | },
285 | "file_extension": ".py",
286 | "mimetype": "text/x-python",
287 | "name": "python",
288 | "nbconvert_exporter": "python",
289 | "pygments_lexer": "ipython3",
290 | "version": "3.7.3"
291 | }
292 | },
293 | "nbformat": 4,
294 | "nbformat_minor": 2
295 | }
296 |
--------------------------------------------------------------------------------
/notebooks/08_graficos_seaborn.ipynb:
--------------------------------------------------------------------------------
1 | {
2 | "cells": [
3 | {
4 | "cell_type": "markdown",
5 | "metadata": {},
6 | "source": [
7 | "# Gráficos con seaborn\n",
8 | "\n",
9 | "Vamos a profundizar más en el uso de esta librería. Para la mayoría de los ejemplos, usaremos el dataset de diamantes.\n",
10 | "\n",
11 | "Puedes consultar la documentación completa de seaborn [aquí](https://seaborn.pydata.org/). O un resumen de las funciones más importantes [aquí](https://s3.amazonaws.com/assets.datacamp.com/blog_assets/Python_Seaborn_Cheat_Sheet.pdf)"
12 | ]
13 | },
14 | {
15 | "cell_type": "code",
16 | "execution_count": null,
17 | "metadata": {},
18 | "outputs": [],
19 | "source": [
20 | "import seaborn as sns\n",
21 | "import matplotlib.pyplot as plt"
22 | ]
23 | },
24 | {
25 | "cell_type": "code",
26 | "execution_count": null,
27 | "metadata": {},
28 | "outputs": [],
29 | "source": [
30 | "# Esto solo me sirve para que se vean algo más grandes los gráficos\n",
31 | "# en el notebook\n",
32 | "\n",
33 | "from matplotlib import rcParams\n",
34 | "\n",
35 | "rcParams['figure.figsize'] = 14, 10\n",
36 | "sns.set_context('talk')"
37 | ]
38 | },
39 | {
40 | "cell_type": "code",
41 | "execution_count": null,
42 | "metadata": {},
43 | "outputs": [],
44 | "source": [
45 | "diamonds = sns.load_dataset('diamonds')"
46 | ]
47 | },
48 | {
49 | "cell_type": "markdown",
50 | "metadata": {},
51 | "source": [
52 | "Para que los gráficos sean más rápidos en cargar, y algunos ejemplos más claros, cojo solamente un subconjunto de los datos (2000 filas de unas 54000)"
53 | ]
54 | },
55 | {
56 | "cell_type": "code",
57 | "execution_count": null,
58 | "metadata": {},
59 | "outputs": [],
60 | "source": [
61 | "dat = diamonds.sample(2000, random_state=1234).copy()\n",
62 | "dat.head()"
63 | ]
64 | },
65 | {
66 | "cell_type": "markdown",
67 | "metadata": {},
68 | "source": [
69 | "## Scatter plot\n",
70 | "\n",
71 | "Para pintar una característica frente a otra en un [scatterplot](https://seaborn.pydata.org/generated/seaborn.scatterplot.html), p.e. precio vs quilates:"
72 | ]
73 | },
74 | {
75 | "cell_type": "code",
76 | "execution_count": null,
77 | "metadata": {},
78 | "outputs": [],
79 | "source": [
80 | "out = sns.scatterplot(x='price', y='carat', data=dat)"
81 | ]
82 | },
83 | {
84 | "cell_type": "markdown",
85 | "metadata": {},
86 | "source": [
87 | "#### Ejercicio\n",
88 | "\n",
89 | "Cambia el tamaño de los puntos según la propiedad `x` (longitud en mm) sobre el scatterplot básico."
90 | ]
91 | },
92 | {
93 | "cell_type": "code",
94 | "execution_count": null,
95 | "metadata": {},
96 | "outputs": [],
97 | "source": []
98 | },
99 | {
100 | "cell_type": "markdown",
101 | "metadata": {},
102 | "source": [
103 | "#### Ejercicio\n",
104 | "\n",
105 | "Cambia la forma de los puntos según la propiedad `clarity` sobre el scatterplot básico."
106 | ]
107 | },
108 | {
109 | "cell_type": "code",
110 | "execution_count": null,
111 | "metadata": {},
112 | "outputs": [],
113 | "source": []
114 | },
115 | {
116 | "cell_type": "markdown",
117 | "metadata": {},
118 | "source": [
119 | "#### Ejercicio\n",
120 | "\n",
121 | "Colorea los puntos según la propiedad `cut` sobre el scatterplot básico que acabamos de mostrar.\n",
122 | "\n",
123 | "Una vez hecho, ordena en la leyenda los cortes de forma ascendente por calidad, es decir, 'Fair', 'Good', 'Very Good', 'Premium', 'Ideal'."
124 | ]
125 | },
126 | {
127 | "cell_type": "code",
128 | "execution_count": null,
129 | "metadata": {},
130 | "outputs": [],
131 | "source": []
132 | },
133 | {
134 | "cell_type": "markdown",
135 | "metadata": {},
136 | "source": [
137 | "#### Ejercicio\n",
138 | "\n",
139 | "Prueba a colorear los puntos ahora por una propiedad numérica. ¿Cuál es la diferencia que observas en la paleta de colores con respecto a `cut`, que es categórica?"
140 | ]
141 | },
142 | {
143 | "cell_type": "code",
144 | "execution_count": null,
145 | "metadata": {},
146 | "outputs": [],
147 | "source": []
148 | },
149 | {
150 | "cell_type": "markdown",
151 | "metadata": {},
152 | "source": [
153 | "Si queremos utilizar un scatter plot con una variable categórica, podemos usar efecto `jitter` sobre los puntos que irían unos encima de otros (es decir, aplicar un poco de desplazamiento para ver nubes de puntos). Para hacer esto, tenemos `stripplot` y `swarmplot`. Como ejercicio, descubre la diferencia entre ambos métodos.\n",
154 | "\n",
155 | "Un ejemplo:"
156 | ]
157 | },
158 | {
159 | "cell_type": "code",
160 | "execution_count": null,
161 | "metadata": {},
162 | "outputs": [],
163 | "source": [
164 | "out = sns.stripplot(x='cut', y='price', data=dat)"
165 | ]
166 | },
167 | {
168 | "cell_type": "markdown",
169 | "metadata": {},
170 | "source": [
171 | "#### Ejercicio\n",
172 | "\n",
173 | "Pinta este mismo gráfico con `scatterplot` y `swarmplot`. Explica las diferencias."
174 | ]
175 | },
176 | {
177 | "cell_type": "code",
178 | "execution_count": null,
179 | "metadata": {},
180 | "outputs": [],
181 | "source": []
182 | },
183 | {
184 | "cell_type": "markdown",
185 | "metadata": {},
186 | "source": [
187 | "#### Ejercicio\n",
188 | "\n",
189 | "* Pinta el mismo gráfico con _violines_ en lugar de con puntos\n",
190 | "* Ídem con boxplots\n",
191 | "\n",
192 | "¿Cuál te parece más intuitivo?"
193 | ]
194 | },
195 | {
196 | "cell_type": "code",
197 | "execution_count": null,
198 | "metadata": {},
199 | "outputs": [],
200 | "source": []
201 | },
202 | {
203 | "cell_type": "markdown",
204 | "metadata": {},
205 | "source": [
206 | "## Bar plot\n",
207 | "\n",
208 | "Otro estilo de gráfico muy habitual son los de barras. Ten en cuenta que:\n",
209 | "\n",
210 | "* Si representamos una variable en el eje x, y el eje y es el conteo, estamos hablando de [`countplot`](https://seaborn.pydata.org/generated/seaborn.countplot.html)\n",
211 | "* Si representamos una variable en el eje x y otra en el eje y, hablamos de [`barplot`](https://seaborn.pydata.org/generated/seaborn.barplot.html)"
212 | ]
213 | },
214 | {
215 | "cell_type": "code",
216 | "execution_count": null,
217 | "metadata": {},
218 | "outputs": [],
219 | "source": [
220 | "# Un countplot\n",
221 | "out = sns.countplot(x='clarity', hue='cut', data=dat)"
222 | ]
223 | },
224 | {
225 | "cell_type": "markdown",
226 | "metadata": {},
227 | "source": [
228 | "## Histograma\n",
229 | "\n",
230 | "Para representar la distribución de una variable podemos usar [`distplot`](https://seaborn.pydata.org/generated/seaborn.distplot.html), pasando como argumento la columna de interés."
231 | ]
232 | },
233 | {
234 | "cell_type": "code",
235 | "execution_count": null,
236 | "metadata": {},
237 | "outputs": [],
238 | "source": [
239 | "out = sns.distplot(dat.price)"
240 | ]
241 | },
242 | {
243 | "cell_type": "markdown",
244 | "metadata": {},
245 | "source": [
246 | "#### Ejercicio\n",
247 | "\n",
248 | "* Lee los datos del economista (`dat/economist-countries-data.csv`), con indicadores de desarrollo y corrupción por países\n",
249 | " * HDI: Human Development Index (1: más desarrollado)\n",
250 | " * CPI: Corruption Perception Index (10: menos corrupto)\n",
251 | "* Crea un gráfico que:\n",
252 | " * Cada país sea un punto\n",
253 | " * El eje x indique CPI, el y HDI\n",
254 | " * El color del punto indique la región\n",
255 | " * Su tamaño sea proporcional al ranking HDI\n",
256 | "* ¿Qué conclusiones extraes del gráfico?"
257 | ]
258 | },
259 | {
260 | "cell_type": "code",
261 | "execution_count": null,
262 | "metadata": {},
263 | "outputs": [],
264 | "source": []
265 | },
266 | {
267 | "cell_type": "markdown",
268 | "metadata": {},
269 | "source": [
270 | "## Escalas\n",
271 | "\n",
272 | "Podemos cambiar la escala de los ejes:"
273 | ]
274 | },
275 | {
276 | "cell_type": "code",
277 | "execution_count": null,
278 | "metadata": {},
279 | "outputs": [],
280 | "source": [
281 | "out = sns.scatterplot(x='price', y='carat', data=dat)\n",
282 | "\n",
283 | "# Esta instrucción es de matplotlib, y altera el gráfico actual\n",
284 | "plt.xscale('log')"
285 | ]
286 | },
287 | {
288 | "cell_type": "markdown",
289 | "metadata": {},
290 | "source": [
291 | "#### Ejercicio\n",
292 | "\n",
293 | "Investiga cómo cambiar las paletas de colores por alguna de nuestra elección de [colorbrewer](http://colorbrewer2.org), y pinta dos scatterplots de precio vs quilates. Cada uno usará como color una propiedad diferente, que consideres de naturaleza secuencial y cualitativa respectivamente."
294 | ]
295 | },
296 | {
297 | "cell_type": "code",
298 | "execution_count": null,
299 | "metadata": {},
300 | "outputs": [],
301 | "source": []
302 | },
303 | {
304 | "cell_type": "markdown",
305 | "metadata": {},
306 | "source": [
307 | "#### Ejercicio\n",
308 | "\n",
309 | "Investiga cómo cambiar las etiquetas de los ejes y el título global del gráfico. Hazlo sobre uno de tus gráficos."
310 | ]
311 | },
312 | {
313 | "cell_type": "code",
314 | "execution_count": null,
315 | "metadata": {},
316 | "outputs": [],
317 | "source": []
318 | },
319 | {
320 | "cell_type": "markdown",
321 | "metadata": {},
322 | "source": [
323 | "## Facets\n",
324 | "\n",
325 | "Los facets son composiciones de gráficos para comparar datos sobre distintas propiedades. [Aquí](https://seaborn.pydata.org/tutorial/axis_grids.html) tienes una buena referencia sobre cómo generarlos desde seaborn."
326 | ]
327 | },
328 | {
329 | "cell_type": "markdown",
330 | "metadata": {},
331 | "source": [
332 | "Podemos comprar todas nuestras variables numéricas rápidamente con `pairplot`. Opcionalmente, agrupando (coloreando) por alguna categórica:"
333 | ]
334 | },
335 | {
336 | "cell_type": "code",
337 | "execution_count": null,
338 | "metadata": {},
339 | "outputs": [],
340 | "source": [
341 | "out = sns.pairplot(dat, hue='cut')"
342 | ]
343 | },
344 | {
345 | "cell_type": "markdown",
346 | "metadata": {},
347 | "source": [
348 | "#### Ejercicio\n",
349 | "\n",
350 | "Investiga el uso de [`FacetGrid`](https://seaborn.pydata.org/tutorial/axis_grids.html) y pinta estos gráficos:\n",
351 | "\n",
352 | "* Los histogramas de `carat` por cada valor de `cut`.\n",
353 | "* Un scatterplot de `carat` en x frente a `price` en y, por cada valor de `cut`.\n",
354 | "* Un scatterplot de `carat` en x frente a `price` en y, por cada valor de `cut` y `clarity`."
355 | ]
356 | },
357 | {
358 | "cell_type": "code",
359 | "execution_count": null,
360 | "metadata": {},
361 | "outputs": [],
362 | "source": []
363 | },
364 | {
365 | "cell_type": "markdown",
366 | "metadata": {},
367 | "source": [
368 | "## Ejercicio exploración avistamientos de OVNIs\n",
369 | "\n",
370 | "Vamos a explorar un conjunto de datos sobre avistamientos de OVNIs, disponible en este repositorio en `dat/ufos.csv`. \n",
371 | "\n",
372 | "Lee los datos y límpialos. Luego, haz un análisis gráfico de los datos contestando a las siguientes preguntas:\n",
373 | "\n",
374 | "* ¿Cuáles son las formas de OVNI avistadas más frecuentes (y cuál es esa frecuencia)? Con forma me refiero a: luz, óvalo, triángulo, ...\n",
375 | "* ¿Hay meses del año en los que es más probable que se produzca un avistamiento? ¿Hay alguna forma que se vea claramente más frecuentemente en algún momento del año?\n",
376 | "* ¿Qué países aparecen en el dataset? ¿Cuál tiene mayor número de avistamientos?\n",
377 | "* ¿Cómo se distribuye la duración de los avistamientos?\n",
378 | "* ¿Cómo se distribuye el tiempo pasado entre el momento del avistamiento (`datetime`) y la fecha de publicación (`date_posted`)?\n",
379 | "* Opcional: crea una nube de palabras sobre los comentarios, para ver qué palabras son las más comunes. Puedes usar el paquete [`WordCloud`](https://github.com/amueller/word_cloud) para ello.\n",
380 | "* Piensa otras preguntas, intenta ver posibles interacciones entre variables, y pinta los gráficos correspondientes"
381 | ]
382 | },
383 | {
384 | "cell_type": "code",
385 | "execution_count": null,
386 | "metadata": {},
387 | "outputs": [],
388 | "source": []
389 | }
390 | ],
391 | "metadata": {
392 | "kernelspec": {
393 | "display_name": "libropython",
394 | "language": "python",
395 | "name": "libropython"
396 | },
397 | "language_info": {
398 | "codemirror_mode": {
399 | "name": "ipython",
400 | "version": 3
401 | },
402 | "file_extension": ".py",
403 | "mimetype": "text/x-python",
404 | "name": "python",
405 | "nbconvert_exporter": "python",
406 | "pygments_lexer": "ipython3",
407 | "version": "3.7.6"
408 | }
409 | },
410 | "nbformat": 4,
411 | "nbformat_minor": 2
412 | }
413 |
--------------------------------------------------------------------------------
/notebooks/09_graficos_mapas.ipynb:
--------------------------------------------------------------------------------
1 | {
2 | "cells": [
3 | {
4 | "cell_type": "markdown",
5 | "metadata": {},
6 | "source": [
7 | "# Gráficos geoespaciales: mapas\n",
8 | "\n",
9 | "Habitualmente necesitamos pintar datos que tienen una referencia geoespacial, por ejemplo:\n",
10 | "\n",
11 | "* Puntos en mapas\n",
12 | "* Rutas\n",
13 | "* Estados, provincias, países u otras divisiones administrativas de territorios\n",
14 | "\n",
15 | "Para hacerlo, podemos utilizar la librería `folium`, que permite utilizar [`leaflet`](https://leafletjs.com/) dentro de python.\n",
16 | "\n",
17 | "Puedes consultar la documentación de folium [aquí](https://python-visualization.github.io/folium/)."
18 | ]
19 | },
20 | {
21 | "cell_type": "code",
22 | "execution_count": null,
23 | "metadata": {},
24 | "outputs": [],
25 | "source": [
26 | "import folium\n",
27 | "import pandas as pd"
28 | ]
29 | },
30 | {
31 | "cell_type": "markdown",
32 | "metadata": {},
33 | "source": [
34 | "Si te falla el `import folium` es que no tienes la librería instalada. Para hacerlo, corre desde tu terminal:\n",
35 | "\n",
36 | "```\n",
37 | "# si usas conda (gestor de paquetes de Anaconda)\n",
38 | "conda install -c conda-forge folium\n",
39 | "\n",
40 | "# si usas pip\n",
41 | "pip install folium\n",
42 | "```\n",
43 | "\n",
44 | "Una vez lo instalas, tendrás que reiniciar el kernel de jupyter antes de volver a probar. Puedes hacerlo desde este notebook en el menú Kernel / Restart."
45 | ]
46 | },
47 | {
48 | "cell_type": "markdown",
49 | "metadata": {},
50 | "source": [
51 | "## Un primer mapa\n",
52 | "\n",
53 | "Para pintar un mapa, llamamos a folium con las opciones que queramos. Por ejemplo, vamos a pintar un mapa de la zona de República Argentina, Madrid"
54 | ]
55 | },
56 | {
57 | "cell_type": "code",
58 | "execution_count": null,
59 | "metadata": {
60 | "scrolled": true
61 | },
62 | "outputs": [],
63 | "source": [
64 | "rep_argentina = [40.4438, -3.6857]\n",
65 | "folium.Map(location=rep_argentina, zoom_start=15)"
66 | ]
67 | },
68 | {
69 | "cell_type": "markdown",
70 | "metadata": {},
71 | "source": [
72 | "Las imágenes de las calles, el mapa base, se denominan `tiles`. Podemos personalizarlo con el parámetro `tiles`. Uno que suele quedar bastante bien para pintar datos encima es `cartodbpositron`:"
73 | ]
74 | },
75 | {
76 | "cell_type": "code",
77 | "execution_count": null,
78 | "metadata": {
79 | "scrolled": true
80 | },
81 | "outputs": [],
82 | "source": [
83 | "folium.Map(location=rep_argentina, zoom_start=15, tiles='cartodbpositron')"
84 | ]
85 | },
86 | {
87 | "cell_type": "markdown",
88 | "metadata": {},
89 | "source": [
90 | "## Marcadores\n",
91 | "\n",
92 | "Para añadir una localización, añadimos uno o varios marcadores al mapa. Sobre ellos, podemos personalizar:\n",
93 | "\n",
94 | "* Localización\n",
95 | "* Textos en tooltip o popup\n",
96 | "* Estilo (forma, color, ...)\n",
97 | "\n",
98 | "Mira más opciones en la [documentación](https://python-visualization.github.io/folium/modules.html#folium.map.Marker)."
99 | ]
100 | },
101 | {
102 | "cell_type": "code",
103 | "execution_count": null,
104 | "metadata": {},
105 | "outputs": [],
106 | "source": [
107 | "rep_argentina = [40.446, -3.68]\n",
108 | "m = folium.Map(location=rep_argentina, zoom_start=15)\n",
109 | "folium.Marker([40.4438, -3.6857], tooltip='EAE Joaquín Costa').add_to(m)\n",
110 | "folium.Marker([40.4485,-3.6796], tooltip='EAE Príncipe de Vergada').add_to(m)\n",
111 | "m"
112 | ]
113 | },
114 | {
115 | "cell_type": "markdown",
116 | "metadata": {},
117 | "source": [
118 | "Vamos a añadir una serie de localizaciones a nuestro mapa. En `dat/` tenemos disponibles las localizaciones de los apartamentos de AirBnB en Madrid, descargados de [Inside AirBnB](http://insideairbnb.com/)."
119 | ]
120 | },
121 | {
122 | "cell_type": "code",
123 | "execution_count": null,
124 | "metadata": {},
125 | "outputs": [],
126 | "source": [
127 | "listings = pd.read_csv('dat/listings.csv')\n",
128 | "listings.head()"
129 | ]
130 | },
131 | {
132 | "cell_type": "code",
133 | "execution_count": null,
134 | "metadata": {},
135 | "outputs": [],
136 | "source": [
137 | "# Mi mapa base sobre Madrid\n",
138 | "map_madrid = folium.Map(location=[40.42, -3.7], zoom_start=13)\n",
139 | "\n",
140 | "# Cojo 100 apartamentos (la muestra completa es muy grande)\n",
141 | "listings_sample = listings.sample(500, random_state=1234)\n",
142 | "\n",
143 | "# Los añado a mi mapa\n",
144 | "# Voy a usar CircleMarker en lugar de Marker, porque me deja personalizar el color más fácilmente\n",
145 | "listings_sample.apply(\n",
146 | " lambda row: folium.CircleMarker([row.latitude, row.longitude], tooltip=row.room_type, radius=3).add_to(map_madrid),\n",
147 | " axis=1\n",
148 | ")\n",
149 | "map_madrid"
150 | ]
151 | },
152 | {
153 | "cell_type": "markdown",
154 | "metadata": {},
155 | "source": [
156 | "#### Ejercicio\n",
157 | "\n",
158 | "Personaliza el mapa anterior para que el color del marcador diferencie por `room_type`."
159 | ]
160 | },
161 | {
162 | "cell_type": "code",
163 | "execution_count": null,
164 | "metadata": {},
165 | "outputs": [],
166 | "source": []
167 | },
168 | {
169 | "cell_type": "markdown",
170 | "metadata": {},
171 | "source": [
172 | "## Heatmaps\n",
173 | "\n",
174 | "Son útiles para representar densidades.\n",
175 | "\n",
176 | "Vamos a utilizarlo para ver cuál es la concentración de apartamentos por zona.\n",
177 | "\n",
178 | "Si consultamos la [documentación](https://python-visualization.github.io/folium/plugins.html#folium.plugins.HeatMap), vemos que necesita un parámetro `data` que debe ser una lista de `[lat, lng]`, pero también acepta un dataframe de pandas con 2 columnas."
179 | ]
180 | },
181 | {
182 | "cell_type": "code",
183 | "execution_count": null,
184 | "metadata": {},
185 | "outputs": [],
186 | "source": [
187 | "from folium.plugins import HeatMap"
188 | ]
189 | },
190 | {
191 | "cell_type": "code",
192 | "execution_count": null,
193 | "metadata": {},
194 | "outputs": [],
195 | "source": [
196 | "m = folium.Map(location=[40.42, -3.7], zoom_start=11, tiles='cartodbpositron')\n",
197 | "heatmap = HeatMap(data=listings[[\"latitude\", \"longitude\"]], radius=15).add_to(m)\n",
198 | "m"
199 | ]
200 | },
201 | {
202 | "cell_type": "markdown",
203 | "metadata": {},
204 | "source": [
205 | "## Mapa de coropletas\n",
206 | "\n",
207 | "Son mapas sobre los que coloreamos las regiones que contiene en base a la propiedad que queremos explicar.\n",
208 | "\n",
209 | "Vamos a pintar un mapa que represente el precio medio de los alojamientos de cada barrio."
210 | ]
211 | },
212 | {
213 | "cell_type": "code",
214 | "execution_count": null,
215 | "metadata": {},
216 | "outputs": [],
217 | "source": [
218 | "num_per_area = listings.groupby('neighbourhood').id.count().reset_index()\n",
219 | "num_per_area = num_per_area.rename(columns={\"id\": \"num\"})\n",
220 | "num_per_area.head()"
221 | ]
222 | },
223 | {
224 | "cell_type": "code",
225 | "execution_count": null,
226 | "metadata": {},
227 | "outputs": [],
228 | "source": [
229 | "# Incializamos el mapa\n",
230 | "m = folium.Map(location=[40.42, -3.7], zoom_start=11, tiles='cartodbpositron')\n",
231 | "\n",
232 | "# Add the color for the chloropleth:\n",
233 | "folium.Choropleth(\n",
234 | " geo_data='dat/neighbourhoods.geojson',\n",
235 | " data=num_per_area,\n",
236 | " columns=['neighbourhood', 'num'],\n",
237 | " key_on='feature.properties.neighbourhood',\n",
238 | " fill_color='YlGn'\n",
239 | ").add_to(m)\n",
240 | "\n",
241 | "m"
242 | ]
243 | },
244 | {
245 | "cell_type": "markdown",
246 | "metadata": {},
247 | "source": [
248 | "#### Ejercicio\n",
249 | "\n",
250 | "Modifica el mapa anterior para definir los límites de cada color y ver mejor el detalle. P.e. para que de 0 a 10 se vea en una intensidad, de 10 a 100 en otra, de 100 a 1000, ... (es decir, una escala logarítmica)"
251 | ]
252 | },
253 | {
254 | "cell_type": "code",
255 | "execution_count": null,
256 | "metadata": {},
257 | "outputs": [],
258 | "source": []
259 | },
260 | {
261 | "cell_type": "markdown",
262 | "metadata": {},
263 | "source": [
264 | "## Ejercicios con la API de citybik\n",
265 | "\n",
266 | "Consulta la documentación de la API de [citybik](http://api.citybik.es/v2/). Quizás quieras repasar también el notebook dedicado a las APIs."
267 | ]
268 | },
269 | {
270 | "cell_type": "markdown",
271 | "metadata": {},
272 | "source": [
273 | "### Ejercicio: get_networks\n",
274 | "\n",
275 | "Crea una función `get_networks()` que devuelva todas las redes de bicis disponibles"
276 | ]
277 | },
278 | {
279 | "cell_type": "code",
280 | "execution_count": null,
281 | "metadata": {},
282 | "outputs": [],
283 | "source": []
284 | },
285 | {
286 | "cell_type": "markdown",
287 | "metadata": {},
288 | "source": [
289 | "### Ejercicio: plot_networks\n",
290 | "\n",
291 | "Crea una función `plot_networks()` que pinte en un mapa todas las redes de bicis disponibles en la localización en la que se encuentran. Además, añade un tooltip con el nombre de la red"
292 | ]
293 | },
294 | {
295 | "cell_type": "code",
296 | "execution_count": null,
297 | "metadata": {},
298 | "outputs": [],
299 | "source": []
300 | },
301 | {
302 | "cell_type": "markdown",
303 | "metadata": {},
304 | "source": [
305 | "### Ejercicio: get_stations\n",
306 | "\n",
307 | "Crea una función `get_stations(network_id)` que:\n",
308 | "\n",
309 | "* Acepte un argumento `network_id` con el identificador de la red. P.e. podría tomar el valor `bicimad`, `bicing`, `velib`, ...\n",
310 | "* Devuelva una lista con las estaciones (y su información) de la red especificada\n",
311 | "\n",
312 | "_Nota_: puedes concatenar cadenas de texto con `+`. P.e.: `'hola' + ' mundo'`"
313 | ]
314 | },
315 | {
316 | "cell_type": "code",
317 | "execution_count": null,
318 | "metadata": {},
319 | "outputs": [],
320 | "source": []
321 | },
322 | {
323 | "cell_type": "markdown",
324 | "metadata": {},
325 | "source": [
326 | "### Ejercicio: get_stations con control de error\n",
327 | "\n",
328 | "Modifica la función `get_stations(network_id)` para que, si introduces una red que no existe, devuelva una lista vacía en lugar de un error no controlado."
329 | ]
330 | },
331 | {
332 | "cell_type": "code",
333 | "execution_count": null,
334 | "metadata": {},
335 | "outputs": [],
336 | "source": []
337 | },
338 | {
339 | "cell_type": "markdown",
340 | "metadata": {},
341 | "source": [
342 | "### Ejercicio: get_stations con parámetros opcionales\n",
343 | "\n",
344 | "Modifica la función `get_stations` para que, además del parámetro actual, tenga un parámetro adicional opcional:\n",
345 | "\n",
346 | "* `min_free_bikes`: número mínimo de bicis disponibles para coger\n",
347 | "\n",
348 | "La función deberá devolver únicamente las estaciones que cumplan la condición pasada en el parámetro. El valor por defecto de este nuevo parámetro es 0."
349 | ]
350 | },
351 | {
352 | "cell_type": "code",
353 | "execution_count": null,
354 | "metadata": {},
355 | "outputs": [],
356 | "source": []
357 | },
358 | {
359 | "cell_type": "markdown",
360 | "metadata": {},
361 | "source": [
362 | "### Ejercicio\n",
363 | "\n",
364 | "Pinta en un mapa las estaciones de BiciMAD.\n",
365 | "\n",
366 | "Además:\n",
367 | "\n",
368 | "* Pinta el marcador en rojo si hay menos de un 20% de las bicis disponibles en este momento, en naranja si está entre el 20% - 50%, y verde si hay más\n",
369 | "* Pinta un tooltip con el nombre de la estación"
370 | ]
371 | },
372 | {
373 | "cell_type": "code",
374 | "execution_count": null,
375 | "metadata": {},
376 | "outputs": [],
377 | "source": []
378 | }
379 | ],
380 | "metadata": {
381 | "kernelspec": {
382 | "display_name": "libropython",
383 | "language": "python",
384 | "name": "libropython"
385 | },
386 | "language_info": {
387 | "codemirror_mode": {
388 | "name": "ipython",
389 | "version": 3
390 | },
391 | "file_extension": ".py",
392 | "mimetype": "text/x-python",
393 | "name": "python",
394 | "nbconvert_exporter": "python",
395 | "pygments_lexer": "ipython3",
396 | "version": "3.7.6"
397 | }
398 | },
399 | "nbformat": 4,
400 | "nbformat_minor": 2
401 | }
402 |
--------------------------------------------------------------------------------
/notebooks/10_numpy.ipynb:
--------------------------------------------------------------------------------
1 | {
2 | "cells": [
3 | {
4 | "cell_type": "markdown",
5 | "metadata": {},
6 | "source": [
7 | "# Numpy\n",
8 | "\n",
9 | "Hemos trabajado de forma indirecta con arrays de numpy. Las columnas numéricas en `pandas` los utilizan. Por ejemplo:"
10 | ]
11 | },
12 | {
13 | "cell_type": "code",
14 | "execution_count": null,
15 | "metadata": {},
16 | "outputs": [],
17 | "source": [
18 | "import pandas as pd\n",
19 | "import numpy as np\n",
20 | "\n",
21 | "venta = pd.read_csv('dat/venta-madrid-municipios.csv')\n",
22 | "venta.head()"
23 | ]
24 | },
25 | {
26 | "cell_type": "code",
27 | "execution_count": null,
28 | "metadata": {},
29 | "outputs": [],
30 | "source": [
31 | "venta.dtypes"
32 | ]
33 | },
34 | {
35 | "cell_type": "markdown",
36 | "metadata": {},
37 | "source": [
38 | "`numpy` nos facilita trabajar con arrays multi-dimensionales y aplicar operaciones matemáticas sobre ellos.\n",
39 | "\n",
40 | "Podemos extraer el array de `numpy` de una columna aplicando la función [`to_numpy`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.Series.to_numpy.html)"
41 | ]
42 | },
43 | {
44 | "cell_type": "code",
45 | "execution_count": null,
46 | "metadata": {},
47 | "outputs": [],
48 | "source": [
49 | "venta.precio.to_numpy()"
50 | ]
51 | },
52 | {
53 | "cell_type": "markdown",
54 | "metadata": {},
55 | "source": [
56 | "## Creación e inspección básica\n",
57 | "\n",
58 | "Tenemos varias utilidades para crear arrays de numpy. Una forma es especificar los elementos con `np.array`"
59 | ]
60 | },
61 | {
62 | "cell_type": "code",
63 | "execution_count": null,
64 | "metadata": {},
65 | "outputs": [],
66 | "source": [
67 | "# Un array uni-dimensional\n",
68 | "a = np.array([2.3, 7.1, 4.7])\n",
69 | "a"
70 | ]
71 | },
72 | {
73 | "cell_type": "code",
74 | "execution_count": null,
75 | "metadata": {},
76 | "outputs": [],
77 | "source": [
78 | "# Un array multi-dimensional (matrix 2x3)\n",
79 | "b = np.array([[2, 7, 4], [7, 1, 5]])\n",
80 | "b"
81 | ]
82 | },
83 | {
84 | "cell_type": "code",
85 | "execution_count": null,
86 | "metadata": {},
87 | "outputs": [],
88 | "source": [
89 | "# Un array de booleanos\n",
90 | "c = np.array([True, False, False, True])\n",
91 | "c"
92 | ]
93 | },
94 | {
95 | "cell_type": "markdown",
96 | "metadata": {},
97 | "source": [
98 | "Las propiedades más importantes que tiene un array son:\n",
99 | "\n",
100 | "* `shape`: las dimensiones\n",
101 | "* `dtype`: el tipo\n",
102 | "* `ndim`: el número de dimensiones (coincide con el número de elementos de `shape`)\n",
103 | "* `size`: el número total de elementos (coincide con el producto de los elementos de `shape`)"
104 | ]
105 | },
106 | {
107 | "cell_type": "code",
108 | "execution_count": null,
109 | "metadata": {},
110 | "outputs": [],
111 | "source": [
112 | "b.shape"
113 | ]
114 | },
115 | {
116 | "cell_type": "code",
117 | "execution_count": null,
118 | "metadata": {},
119 | "outputs": [],
120 | "source": [
121 | "b.dtype"
122 | ]
123 | },
124 | {
125 | "cell_type": "code",
126 | "execution_count": null,
127 | "metadata": {},
128 | "outputs": [],
129 | "source": [
130 | "b.ndim"
131 | ]
132 | },
133 | {
134 | "cell_type": "code",
135 | "execution_count": null,
136 | "metadata": {},
137 | "outputs": [],
138 | "source": [
139 | "b.size"
140 | ]
141 | },
142 | {
143 | "cell_type": "markdown",
144 | "metadata": {},
145 | "source": [
146 | "#### Ejercicio\n",
147 | "\n",
148 | "Crea un array de tres dimensiones e inspecciónalo usando las propiedades descritas arriba"
149 | ]
150 | },
151 | {
152 | "cell_type": "code",
153 | "execution_count": null,
154 | "metadata": {},
155 | "outputs": [],
156 | "source": []
157 | },
158 | {
159 | "cell_type": "markdown",
160 | "metadata": {},
161 | "source": [
162 | "También existen otras funciones que facilitan crear arrays fácilmente, rellenos de ceros, unos u otros patrones habituales."
163 | ]
164 | },
165 | {
166 | "cell_type": "code",
167 | "execution_count": null,
168 | "metadata": {},
169 | "outputs": [],
170 | "source": [
171 | "# Matriz de ceros\n",
172 | "np.zeros([3, 4])"
173 | ]
174 | },
175 | {
176 | "cell_type": "code",
177 | "execution_count": null,
178 | "metadata": {},
179 | "outputs": [],
180 | "source": [
181 | "# Array de unos\n",
182 | "np.ones(6)"
183 | ]
184 | },
185 | {
186 | "cell_type": "code",
187 | "execution_count": null,
188 | "metadata": {},
189 | "outputs": [],
190 | "source": [
191 | "# Array secuencial\n",
192 | "np.arange(4)"
193 | ]
194 | },
195 | {
196 | "cell_type": "code",
197 | "execution_count": null,
198 | "metadata": {},
199 | "outputs": [],
200 | "source": [
201 | "# Matriz identidad\n",
202 | "np.eye(3)"
203 | ]
204 | },
205 | {
206 | "cell_type": "markdown",
207 | "metadata": {},
208 | "source": [
209 | "#### Ejercicio\n",
210 | "\n",
211 | "Es útil poder crear arrays o matrices de números distribuidos aleatoriamente de cierta forma, para hacer demostraciones de métodos o probar rápidamente algo. Mira la documentación [aquí](https://docs.scipy.org/doc/numpy-1.14.1/reference/routines.random.html).\n",
212 | "\n",
213 | "Encuentra la forma de generar arrays con 10k elementos de las siguientes distribuciones y pinta sus histogramas:\n",
214 | "\n",
215 | "* Distribución uniforme entre 0 y 10\n",
216 | "* Distribución normal con media en 5 y desviación estándar 2\n",
217 | "* Distribución gamma con `k=2` y `theta=2`\n",
218 | "* Distribución beta con `alpha=5` y `beta=2`\n",
219 | "* Distribución beta con `alpha=2` y `beta=5`"
220 | ]
221 | },
222 | {
223 | "cell_type": "code",
224 | "execution_count": null,
225 | "metadata": {},
226 | "outputs": [],
227 | "source": []
228 | },
229 | {
230 | "cell_type": "markdown",
231 | "metadata": {},
232 | "source": [
233 | "## Operaciones\n",
234 | "\n",
235 | "Las operaciones suma, resta, multiplicación, potencia y comparación lógica se aplican elemento a elemento"
236 | ]
237 | },
238 | {
239 | "cell_type": "code",
240 | "execution_count": null,
241 | "metadata": {},
242 | "outputs": [],
243 | "source": [
244 | "a = np.array([2, 5, 3])\n",
245 | "b = np.array([4, 1, 2])"
246 | ]
247 | },
248 | {
249 | "cell_type": "code",
250 | "execution_count": null,
251 | "metadata": {},
252 | "outputs": [],
253 | "source": [
254 | "a - b"
255 | ]
256 | },
257 | {
258 | "cell_type": "code",
259 | "execution_count": null,
260 | "metadata": {},
261 | "outputs": [],
262 | "source": [
263 | "a + b"
264 | ]
265 | },
266 | {
267 | "cell_type": "code",
268 | "execution_count": null,
269 | "metadata": {},
270 | "outputs": [],
271 | "source": [
272 | "a ** 2"
273 | ]
274 | },
275 | {
276 | "cell_type": "code",
277 | "execution_count": null,
278 | "metadata": {},
279 | "outputs": [],
280 | "source": [
281 | "a >= 3"
282 | ]
283 | },
284 | {
285 | "cell_type": "code",
286 | "execution_count": null,
287 | "metadata": {},
288 | "outputs": [],
289 | "source": [
290 | "a * b"
291 | ]
292 | },
293 | {
294 | "cell_type": "markdown",
295 | "metadata": {},
296 | "source": [
297 | "En Python, el operador `*` hace una multiplicación elemento a elemento. Si necesitas hacer una multiplicación entre matrices, puedes utilizar `@` o la función `dot()`."
298 | ]
299 | },
300 | {
301 | "cell_type": "code",
302 | "execution_count": null,
303 | "metadata": {},
304 | "outputs": [],
305 | "source": [
306 | "A = np.array([[1, 2], [1, 2]])\n",
307 | "B = np.array([[1, 0], [2, 2]])"
308 | ]
309 | },
310 | {
311 | "cell_type": "code",
312 | "execution_count": null,
313 | "metadata": {},
314 | "outputs": [],
315 | "source": [
316 | "# Elemento a elemento\n",
317 | "A * B"
318 | ]
319 | },
320 | {
321 | "cell_type": "code",
322 | "execution_count": null,
323 | "metadata": {},
324 | "outputs": [],
325 | "source": [
326 | "# Multiplicación de matrices: forma 1\n",
327 | "A @ B"
328 | ]
329 | },
330 | {
331 | "cell_type": "code",
332 | "execution_count": null,
333 | "metadata": {},
334 | "outputs": [],
335 | "source": [
336 | "# Multiplicación de matrices: forma 2\n",
337 | "A.dot(B)"
338 | ]
339 | },
340 | {
341 | "cell_type": "markdown",
342 | "metadata": {},
343 | "source": [
344 | "#### Ejercicio\n",
345 | "\n",
346 | "Crea una matriz de 3x3 y multiplícala por la matriz identidad"
347 | ]
348 | },
349 | {
350 | "cell_type": "code",
351 | "execution_count": null,
352 | "metadata": {},
353 | "outputs": [],
354 | "source": []
355 | },
356 | {
357 | "cell_type": "markdown",
358 | "metadata": {},
359 | "source": [
360 | "`numpy` incorpora funciones matemáticas de utilidad, como `mean`, `max`, `argmax`, `std`, `median`, `abs`, `sqrt`, `sin`, `cos`, ..."
361 | ]
362 | },
363 | {
364 | "cell_type": "code",
365 | "execution_count": null,
366 | "metadata": {},
367 | "outputs": [],
368 | "source": [
369 | "# Algunas se pueden invocar desde el array\n",
370 | "a.mean()"
371 | ]
372 | },
373 | {
374 | "cell_type": "code",
375 | "execution_count": null,
376 | "metadata": {},
377 | "outputs": [],
378 | "source": [
379 | "# O desde el módulo de numpy\n",
380 | "np.mean(a)"
381 | ]
382 | },
383 | {
384 | "cell_type": "markdown",
385 | "metadata": {},
386 | "source": [
387 | "En las funciones *de resumen* se puede especificar el eje (p.e. operación por filas, por columnas)"
388 | ]
389 | },
390 | {
391 | "cell_type": "code",
392 | "execution_count": null,
393 | "metadata": {},
394 | "outputs": [],
395 | "source": [
396 | "A.sum()"
397 | ]
398 | },
399 | {
400 | "cell_type": "code",
401 | "execution_count": null,
402 | "metadata": {},
403 | "outputs": [],
404 | "source": [
405 | "A.sum(axis=0)"
406 | ]
407 | },
408 | {
409 | "cell_type": "code",
410 | "execution_count": null,
411 | "metadata": {},
412 | "outputs": [],
413 | "source": [
414 | "A.sum(axis=1)"
415 | ]
416 | },
417 | {
418 | "cell_type": "markdown",
419 | "metadata": {},
420 | "source": [
421 | "## Casting\n",
422 | "\n",
423 | "El casting es la conversión de tipos. En algunos casos, este implica la pérdida de información (p.e. de `float` a `int`)."
424 | ]
425 | },
426 | {
427 | "cell_type": "code",
428 | "execution_count": null,
429 | "metadata": {},
430 | "outputs": [],
431 | "source": [
432 | "# Para convertir, se eliminan los decimales (aunque esté más cerca del siguiente entero)\n",
433 | "a = np.array([2.3, 7.6, 4.99])\n",
434 | "a.astype(int)"
435 | ]
436 | },
437 | {
438 | "cell_type": "markdown",
439 | "metadata": {},
440 | "source": [
441 | "#### Ejercicio\n",
442 | "\n",
443 | "Investiga y encuentra una forma de convertir un array de `float` a `int` redondeando de diferentes formas:\n",
444 | "\n",
445 | "* Al entero más cercano\n",
446 | "* Al entero inferior\n",
447 | "* Al entero superior"
448 | ]
449 | },
450 | {
451 | "cell_type": "code",
452 | "execution_count": null,
453 | "metadata": {},
454 | "outputs": [],
455 | "source": []
456 | },
457 | {
458 | "cell_type": "markdown",
459 | "metadata": {},
460 | "source": [
461 | "También podemos aplicar el casting entre otros tipos. Por ejemplo:"
462 | ]
463 | },
464 | {
465 | "cell_type": "code",
466 | "execution_count": null,
467 | "metadata": {},
468 | "outputs": [],
469 | "source": [
470 | "np.array([1, 2, 5]).astype(float)"
471 | ]
472 | },
473 | {
474 | "cell_type": "code",
475 | "execution_count": null,
476 | "metadata": {},
477 | "outputs": [],
478 | "source": [
479 | "np.array([True, False, True]).astype(int)"
480 | ]
481 | },
482 | {
483 | "cell_type": "code",
484 | "execution_count": null,
485 | "metadata": {},
486 | "outputs": [],
487 | "source": [
488 | "np.array([0, 1, 2]).astype(bool)"
489 | ]
490 | },
491 | {
492 | "cell_type": "markdown",
493 | "metadata": {},
494 | "source": [
495 | "## Acceso a elementos o rangos\n",
496 | "\n",
497 | "De forma parecida a como accedemos a elementos o rangos en listas y `DataFrames`, podemos hacerlo sobre arrays de `numpy`."
498 | ]
499 | },
500 | {
501 | "cell_type": "code",
502 | "execution_count": null,
503 | "metadata": {},
504 | "outputs": [],
505 | "source": [
506 | "a = np.array([2, 3, 5, 7, 11, 13, 17, 19, 23])"
507 | ]
508 | },
509 | {
510 | "cell_type": "code",
511 | "execution_count": null,
512 | "metadata": {},
513 | "outputs": [],
514 | "source": [
515 | "a[3]"
516 | ]
517 | },
518 | {
519 | "cell_type": "code",
520 | "execution_count": null,
521 | "metadata": {},
522 | "outputs": [],
523 | "source": [
524 | "a[1:4]"
525 | ]
526 | },
527 | {
528 | "cell_type": "code",
529 | "execution_count": null,
530 | "metadata": {},
531 | "outputs": [],
532 | "source": [
533 | "a[:4]"
534 | ]
535 | },
536 | {
537 | "cell_type": "code",
538 | "execution_count": null,
539 | "metadata": {},
540 | "outputs": [],
541 | "source": [
542 | "# saltos\n",
543 | "a[::2]"
544 | ]
545 | },
546 | {
547 | "cell_type": "markdown",
548 | "metadata": {},
549 | "source": [
550 | "Podemos sobrescribir elementos con la asignación"
551 | ]
552 | },
553 | {
554 | "cell_type": "code",
555 | "execution_count": null,
556 | "metadata": {},
557 | "outputs": [],
558 | "source": [
559 | "b = a.copy()\n",
560 | "b"
561 | ]
562 | },
563 | {
564 | "cell_type": "code",
565 | "execution_count": null,
566 | "metadata": {},
567 | "outputs": [],
568 | "source": [
569 | "b[1:3] = 0\n",
570 | "b"
571 | ]
572 | },
573 | {
574 | "cell_type": "markdown",
575 | "metadata": {},
576 | "source": [
577 | "#### Ejercicio\n",
578 | "\n",
579 | "En el ejemplo anterior hemos cogido los elementos en índices pares. Haz lo mismo para los índices impares"
580 | ]
581 | },
582 | {
583 | "cell_type": "code",
584 | "execution_count": null,
585 | "metadata": {},
586 | "outputs": [],
587 | "source": []
588 | },
589 | {
590 | "cell_type": "markdown",
591 | "metadata": {},
592 | "source": [
593 | "## Manipulación de la forma\n",
594 | "\n",
595 | "Con `reshape` podemos alterar la forma de un array"
596 | ]
597 | },
598 | {
599 | "cell_type": "code",
600 | "execution_count": null,
601 | "metadata": {},
602 | "outputs": [],
603 | "source": [
604 | "a = np.arange(12)\n",
605 | "a"
606 | ]
607 | },
608 | {
609 | "cell_type": "code",
610 | "execution_count": null,
611 | "metadata": {},
612 | "outputs": [],
613 | "source": [
614 | "a.reshape(3, 4)"
615 | ]
616 | },
617 | {
618 | "cell_type": "code",
619 | "execution_count": null,
620 | "metadata": {},
621 | "outputs": [],
622 | "source": [
623 | "a.reshape(4, 3)"
624 | ]
625 | },
626 | {
627 | "cell_type": "markdown",
628 | "metadata": {},
629 | "source": [
630 | "Con `.T` obtenemos la traspuesta"
631 | ]
632 | },
633 | {
634 | "cell_type": "code",
635 | "execution_count": null,
636 | "metadata": {},
637 | "outputs": [],
638 | "source": [
639 | "# Creamos una matriz de ejemplo de 2x3\n",
640 | "A = np.arange(6).reshape(2, 3)\n",
641 | "A"
642 | ]
643 | },
644 | {
645 | "cell_type": "code",
646 | "execution_count": null,
647 | "metadata": {},
648 | "outputs": [],
649 | "source": [
650 | "# La traspuesta\n",
651 | "A.T"
652 | ]
653 | },
654 | {
655 | "cell_type": "markdown",
656 | "metadata": {},
657 | "source": [
658 | "Con `ravel` aplanamos una matriz"
659 | ]
660 | },
661 | {
662 | "cell_type": "code",
663 | "execution_count": null,
664 | "metadata": {},
665 | "outputs": [],
666 | "source": [
667 | "A.ravel()"
668 | ]
669 | },
670 | {
671 | "cell_type": "markdown",
672 | "metadata": {},
673 | "source": [
674 | "#### Ejercicio\n",
675 | "\n",
676 | "Aplana la matriz anterior sin utilizar `ravel`."
677 | ]
678 | },
679 | {
680 | "cell_type": "code",
681 | "execution_count": null,
682 | "metadata": {},
683 | "outputs": [],
684 | "source": []
685 | },
686 | {
687 | "cell_type": "markdown",
688 | "metadata": {},
689 | "source": [
690 | "#### Ejercicio\n",
691 | "\n",
692 | "Crea una función genérica `flatten` que aplane cualquier array multi-dimensional de `numpy`. Prueba que funcione bien con diferente número de dimensiones."
693 | ]
694 | },
695 | {
696 | "cell_type": "code",
697 | "execution_count": null,
698 | "metadata": {},
699 | "outputs": [],
700 | "source": []
701 | },
702 | {
703 | "cell_type": "markdown",
704 | "metadata": {},
705 | "source": [
706 | "## Nulos e infinitos\n",
707 | "\n",
708 | "Los arrays de `numpy` pueden contener valores nulos (`NaN`) e infinitos (positivos o negativos). Por ejemplo:"
709 | ]
710 | },
711 | {
712 | "cell_type": "code",
713 | "execution_count": null,
714 | "metadata": {},
715 | "outputs": [],
716 | "source": [
717 | "a = np.array([1, np.NaN, 5, -np.Inf])\n",
718 | "a"
719 | ]
720 | },
721 | {
722 | "cell_type": "markdown",
723 | "metadata": {},
724 | "source": [
725 | "Nos suele interesar detectar estos valores para tratarlos (p.e. eliminarlos o imputarlos)"
726 | ]
727 | },
728 | {
729 | "cell_type": "code",
730 | "execution_count": null,
731 | "metadata": {},
732 | "outputs": [],
733 | "source": [
734 | "np.isnan(a)"
735 | ]
736 | },
737 | {
738 | "cell_type": "code",
739 | "execution_count": null,
740 | "metadata": {},
741 | "outputs": [],
742 | "source": [
743 | "# NaN no es finito\n",
744 | "np.isfinite(a)"
745 | ]
746 | },
747 | {
748 | "cell_type": "markdown",
749 | "metadata": {},
750 | "source": [
751 | "Podemos utilizar los métodos de arriba como condición, y seleccionar solo algunos elementos del array"
752 | ]
753 | },
754 | {
755 | "cell_type": "code",
756 | "execution_count": null,
757 | "metadata": {},
758 | "outputs": [],
759 | "source": [
760 | "# Utilizamos ~ como NOT, igual que con DataFrames\n",
761 | "a[~np.isnan(a)]"
762 | ]
763 | },
764 | {
765 | "cell_type": "code",
766 | "execution_count": null,
767 | "metadata": {},
768 | "outputs": [],
769 | "source": [
770 | "a[np.isfinite(a)]"
771 | ]
772 | },
773 | {
774 | "cell_type": "markdown",
775 | "metadata": {},
776 | "source": [
777 | "#### Ejercicio\n",
778 | "\n",
779 | "Crea una función `imputa_media` que acepte un array e impute los valores no-finitos por la media del resto.\n",
780 | "\n",
781 | "*Nota*: haz una copia del array al comienzo de tu función para evitar modificar el original"
782 | ]
783 | },
784 | {
785 | "cell_type": "code",
786 | "execution_count": null,
787 | "metadata": {},
788 | "outputs": [],
789 | "source": []
790 | },
791 | {
792 | "cell_type": "markdown",
793 | "metadata": {},
794 | "source": [
795 | "#### Ejercicio\n",
796 | "\n",
797 | "Crea una función `imputa` similar a la anterior, pero que la función de imputación (media, mediana) sea un argumento más. Por ejemplo, para replicar el comportamiento de la función anterior, usaríamos:\n",
798 | "\n",
799 | "```\n",
800 | "imputa(a, np.mean)\n",
801 | "```"
802 | ]
803 | },
804 | {
805 | "cell_type": "code",
806 | "execution_count": null,
807 | "metadata": {},
808 | "outputs": [],
809 | "source": []
810 | },
811 | {
812 | "cell_type": "markdown",
813 | "metadata": {},
814 | "source": [
815 | "#### Ejercicio\n",
816 | "\n",
817 | "Crea un array de 10 posiciones con números aleatorios y sustituye el valor más alto por la mitad de este"
818 | ]
819 | },
820 | {
821 | "cell_type": "code",
822 | "execution_count": null,
823 | "metadata": {},
824 | "outputs": [],
825 | "source": []
826 | },
827 | {
828 | "cell_type": "markdown",
829 | "metadata": {},
830 | "source": [
831 | "#### Ejercicio\n",
832 | "\n",
833 | "Crea un array con 20 números aleatorios distribuidos uniformemente entre 0 y 10 y encuentra el valor más cercano a 7."
834 | ]
835 | },
836 | {
837 | "cell_type": "code",
838 | "execution_count": null,
839 | "metadata": {},
840 | "outputs": [],
841 | "source": []
842 | },
843 | {
844 | "cell_type": "markdown",
845 | "metadata": {},
846 | "source": [
847 | "#### Ejercicio\n",
848 | "\n",
849 | "Sobre la matriz `A`, resta a cada fila la media de esta."
850 | ]
851 | },
852 | {
853 | "cell_type": "code",
854 | "execution_count": null,
855 | "metadata": {},
856 | "outputs": [],
857 | "source": [
858 | "A = np.array([[1, 2, 3], [1, 5, 6], [2, 2, 2]])\n",
859 | "A"
860 | ]
861 | },
862 | {
863 | "cell_type": "code",
864 | "execution_count": null,
865 | "metadata": {},
866 | "outputs": [],
867 | "source": []
868 | },
869 | {
870 | "cell_type": "markdown",
871 | "metadata": {},
872 | "source": [
873 | "#### Ejercicio\n",
874 | "\n",
875 | "Sobre el array con los números del 1 al 5, construye un nuevo array que intercale tres ceros consecutivos entre cada valor"
876 | ]
877 | },
878 | {
879 | "cell_type": "code",
880 | "execution_count": null,
881 | "metadata": {},
882 | "outputs": [],
883 | "source": []
884 | },
885 | {
886 | "cell_type": "markdown",
887 | "metadata": {},
888 | "source": [
889 | "## Referencia\n",
890 | "\n",
891 | "Esta documentación está basada en el tutorial de numpy disponible [aquí](https://docs.scipy.org/doc/numpy/user/quickstart.html). Consúltalo para ampliar información."
892 | ]
893 | },
894 | {
895 | "cell_type": "code",
896 | "execution_count": null,
897 | "metadata": {},
898 | "outputs": [],
899 | "source": []
900 | }
901 | ],
902 | "metadata": {
903 | "kernelspec": {
904 | "display_name": "libropython",
905 | "language": "python",
906 | "name": "libropython"
907 | },
908 | "language_info": {
909 | "codemirror_mode": {
910 | "name": "ipython",
911 | "version": 3
912 | },
913 | "file_extension": ".py",
914 | "mimetype": "text/x-python",
915 | "name": "python",
916 | "nbconvert_exporter": "python",
917 | "pygments_lexer": "ipython3",
918 | "version": "3.7.3"
919 | }
920 | },
921 | "nbformat": 4,
922 | "nbformat_minor": 2
923 | }
924 |
--------------------------------------------------------------------------------
/notebooks/11_pivotacion_tablas.ipynb:
--------------------------------------------------------------------------------
1 | {
2 | "cells": [
3 | {
4 | "cell_type": "markdown",
5 | "metadata": {},
6 | "source": [
7 | "# Pivotación de tablas\n",
8 | "\n",
9 | "Vamos a ver cómo transformar las tablas de formato ancho a largo y viceversa"
10 | ]
11 | },
12 | {
13 | "cell_type": "code",
14 | "execution_count": null,
15 | "metadata": {},
16 | "outputs": [],
17 | "source": [
18 | "import pandas as pd"
19 | ]
20 | },
21 | {
22 | "cell_type": "code",
23 | "execution_count": null,
24 | "metadata": {},
25 | "outputs": [],
26 | "source": [
27 | "air = pd.read_csv(\"dat/airquality.csv\")\n",
28 | "air.head()"
29 | ]
30 | },
31 | {
32 | "cell_type": "markdown",
33 | "metadata": {},
34 | "source": [
35 | "## Melt: de ancho a largo\n",
36 | "\n",
37 | "Para pasar de formato ancho a largo, podemos usar [`melt`](https://pandas.pydata.org/pandas-docs/version/0.23/generated/pandas.melt.html)"
38 | ]
39 | },
40 | {
41 | "cell_type": "code",
42 | "execution_count": null,
43 | "metadata": {},
44 | "outputs": [],
45 | "source": [
46 | "air_long = air.melt(id_vars=['month', 'day'])\n",
47 | "air_long.head()"
48 | ]
49 | },
50 | {
51 | "cell_type": "markdown",
52 | "metadata": {},
53 | "source": [
54 | "Vemos que, para cada mes y día, ahora contamos con dos columnas: la variable medida y su valor.\n",
55 | "\n",
56 | "En el formato largo, cada fila cuenta con el índice (en este caso, mes y día), un valor, y etiquetas del valor."
57 | ]
58 | },
59 | {
60 | "cell_type": "markdown",
61 | "metadata": {},
62 | "source": [
63 | "## Pivot: de largo a ancho\n",
64 | "\n",
65 | "Para pasar de formato largo a ancho, podemos usar [`pivot_table`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.pivot_table.html)"
66 | ]
67 | },
68 | {
69 | "cell_type": "code",
70 | "execution_count": null,
71 | "metadata": {},
72 | "outputs": [],
73 | "source": [
74 | "air_wide = air_long.pivot_table(index=['month', 'day'], columns='variable', values='value')\n",
75 | "air_wide.head()"
76 | ]
77 | },
78 | {
79 | "cell_type": "markdown",
80 | "metadata": {},
81 | "source": [
82 | "Los índices jerárquicos suelen ser incómodos para tratar la tabla. Podemos quitarlo con `reset_index()`"
83 | ]
84 | },
85 | {
86 | "cell_type": "code",
87 | "execution_count": null,
88 | "metadata": {},
89 | "outputs": [],
90 | "source": [
91 | "air_wide = air_wide.reset_index()\n",
92 | "air_wide.head()"
93 | ]
94 | },
95 | {
96 | "cell_type": "code",
97 | "execution_count": null,
98 | "metadata": {},
99 | "outputs": [],
100 | "source": [
101 | "# Si además queremos quitar el nombre \"feo\" que se ha quedado como nombre de las columnas...\n",
102 | "del air_wide.columns.name\n",
103 | "air_wide.head()"
104 | ]
105 | },
106 | {
107 | "cell_type": "markdown",
108 | "metadata": {},
109 | "source": [
110 | "#### Ejercicio\n",
111 | "\n",
112 | "Investiga y cambia los nombres de las columnas resultantes (variable y value) por otros que consideres adecuados, durante el proceso de `melt`."
113 | ]
114 | },
115 | {
116 | "cell_type": "code",
117 | "execution_count": null,
118 | "metadata": {},
119 | "outputs": [],
120 | "source": []
121 | },
122 | {
123 | "cell_type": "markdown",
124 | "metadata": {},
125 | "source": [
126 | "#### Ejercicio\n",
127 | "\n",
128 | "La función [`pivot_table`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.pivot_table.html) permite agregar si hay más de un valor por cada fila (es decir, parejas de índice + variable duplicadas).\n",
129 | "\n",
130 | "Aprovecha esta utilidad para, en el paso de `air_long` a ancho, calcular la mediana por variable por mes."
131 | ]
132 | },
133 | {
134 | "cell_type": "code",
135 | "execution_count": null,
136 | "metadata": {},
137 | "outputs": [],
138 | "source": []
139 | },
140 | {
141 | "cell_type": "markdown",
142 | "metadata": {},
143 | "source": [
144 | "#### Ejercicio\n",
145 | "\n",
146 | "Carga en un dataframe el fichero `dat/contaminacion_mad_201812.csv`, y mira qué aspecto tiene. Nuestro objetivo es dejarlo en formato largo, y quedarnos únicamente con los días con una medida válida. Para hacerlo:\n",
147 | "\n",
148 | "* A partir de ese dataframe, crea dos nuevos:\n",
149 | "\n",
150 | " * Uno con el índice + las columnas con los valores (D01, ..., D31)\n",
151 | " * Otro con el índice + las columnas con la validez (V01, ..., V31)\n",
152 | "\n",
153 | "* Pasa ambos a formato largo. El día debe quedar como numérico en ambos.\n",
154 | "* Cruza los resultados, para tener en el mismo dataframe valor y validez\n",
155 | "* Limpia la fecha, para tenerla como `date`"
156 | ]
157 | },
158 | {
159 | "cell_type": "code",
160 | "execution_count": null,
161 | "metadata": {},
162 | "outputs": [],
163 | "source": []
164 | },
165 | {
166 | "cell_type": "markdown",
167 | "metadata": {},
168 | "source": [
169 | "#### Referencia\n",
170 | "\n",
171 | "Puedes consultar la guía completa de pandas sobre pivotación [aquí](http://pandas.pydata.org/pandas-docs/stable/user_guide/reshaping.html)"
172 | ]
173 | },
174 | {
175 | "cell_type": "code",
176 | "execution_count": null,
177 | "metadata": {},
178 | "outputs": [],
179 | "source": []
180 | }
181 | ],
182 | "metadata": {
183 | "kernelspec": {
184 | "display_name": "libropython",
185 | "language": "python",
186 | "name": "libropython"
187 | },
188 | "language_info": {
189 | "codemirror_mode": {
190 | "name": "ipython",
191 | "version": 3
192 | },
193 | "file_extension": ".py",
194 | "mimetype": "text/x-python",
195 | "name": "python",
196 | "nbconvert_exporter": "python",
197 | "pygments_lexer": "ipython3",
198 | "version": "3.7.3"
199 | }
200 | },
201 | "nbformat": 4,
202 | "nbformat_minor": 2
203 | }
204 |
--------------------------------------------------------------------------------
/notebooks/12_bases_de_datos.ipynb:
--------------------------------------------------------------------------------
1 | {
2 | "cells": [
3 | {
4 | "cell_type": "markdown",
5 | "metadata": {},
6 | "source": [
7 | "# Bases de datos\n",
8 | "\n",
9 | "Las bases de datos nos pueden servir como fuente, como destino de los resultados, o ambas. Vamos a ver cómo leer y escribir datos desde Python.\n",
10 | "\n",
11 | "Para estos ejemplos, utilizaremos una base de datos `sqlite` en local."
12 | ]
13 | },
14 | {
15 | "cell_type": "code",
16 | "execution_count": null,
17 | "metadata": {},
18 | "outputs": [],
19 | "source": [
20 | "import sqlite3\n",
21 | "import pandas as pd"
22 | ]
23 | },
24 | {
25 | "cell_type": "markdown",
26 | "metadata": {},
27 | "source": [
28 | "## Conexión\n",
29 | "\n",
30 | "Esto varía dependiendo de la BD a la que te vayas a conectar:\n",
31 | "\n",
32 | "* sqlite: es neceario el módulo `sqlite3`, que vamos a utilizar\n",
33 | "* PostgreSQL: necesitas el módulo `psycopg2`\n",
34 | "* MySQL: hay varias alternativas, como `pymysql` o `mysqlclient`"
35 | ]
36 | },
37 | {
38 | "cell_type": "code",
39 | "execution_count": null,
40 | "metadata": {},
41 | "outputs": [],
42 | "source": [
43 | "conn = sqlite3.connect('11_bd_temporal.sqlite')"
44 | ]
45 | },
46 | {
47 | "cell_type": "markdown",
48 | "metadata": {},
49 | "source": [
50 | "## Escritura\n",
51 | "\n",
52 | "Podemos volcar un dataframe a una tabla de la base de datos con [`DataFrame.to_sql`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.to_sql.html)."
53 | ]
54 | },
55 | {
56 | "cell_type": "code",
57 | "execution_count": null,
58 | "metadata": {},
59 | "outputs": [],
60 | "source": [
61 | "alquiler = pd.read_csv('dat/alquiler-madrid-distritos.csv')\n",
62 | "alquiler.head()"
63 | ]
64 | },
65 | {
66 | "cell_type": "code",
67 | "execution_count": null,
68 | "metadata": {},
69 | "outputs": [],
70 | "source": [
71 | "alquiler.to_sql('alquiler', conn)"
72 | ]
73 | },
74 | {
75 | "cell_type": "markdown",
76 | "metadata": {},
77 | "source": [
78 | "## Consultas\n",
79 | "\n",
80 | "Para lanzar consultas a la base de datos y obtener el resultado en un dataframe, podemos usar [`pd.read_sql()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.read_sql.html)"
81 | ]
82 | },
83 | {
84 | "cell_type": "code",
85 | "execution_count": null,
86 | "metadata": {},
87 | "outputs": [],
88 | "source": [
89 | "query = '''\n",
90 | "select distrito, ano, quarter, precio\n",
91 | "from alquiler\n",
92 | "where distrito = 'Retiro'\n",
93 | "and ano between 2012 and 2014\n",
94 | "'''\n",
95 | "\n",
96 | "pd.read_sql(query, conn)"
97 | ]
98 | },
99 | {
100 | "cell_type": "markdown",
101 | "metadata": {},
102 | "source": [
103 | "#### Ejercicio\n",
104 | "\n",
105 | "Parametriza la query, de forma que el distrito, el año mínimo y el año máximo sean variables. Invoca la query utilizando el argumento `params` de `read_sql`"
106 | ]
107 | },
108 | {
109 | "cell_type": "code",
110 | "execution_count": null,
111 | "metadata": {},
112 | "outputs": [],
113 | "source": []
114 | },
115 | {
116 | "cell_type": "markdown",
117 | "metadata": {},
118 | "source": [
119 | "Parametrizar es importante para evitar inyección de SQL. Esto es especialmente importante si los datos son introducidos por usuarios. [xkcd](http://imgs.xkcd.com/comics/exploits_of_a_mom.png)"
120 | ]
121 | },
122 | {
123 | "cell_type": "markdown",
124 | "metadata": {},
125 | "source": [
126 | "## Carga de resultados\n",
127 | "\n",
128 | "Aunque hemos visto que se puede crear y alimentar una tabla en el momento con `to_sql`, lo más habitual es que nuestra base de datos ya tenga las tablas creadas (con su esquema bien definido, índices, claves foráneas, ...) y que queramos añadir datos.\n",
129 | "\n",
130 | "Vamos a crear una tabla definiendo su esquema, para ver como podríamos añadir los datos de un dataframe sin crearla de cero en `to_sql`."
131 | ]
132 | },
133 | {
134 | "cell_type": "code",
135 | "execution_count": null,
136 | "metadata": {},
137 | "outputs": [],
138 | "source": [
139 | "c = conn.cursor()\n",
140 | "c.execute('''create table alquiler_2\n",
141 | " (distrito text, ano integer, quarter integer, precio real)''')"
142 | ]
143 | },
144 | {
145 | "cell_type": "markdown",
146 | "metadata": {},
147 | "source": [
148 | "Comprobamos que está vacía"
149 | ]
150 | },
151 | {
152 | "cell_type": "code",
153 | "execution_count": null,
154 | "metadata": {},
155 | "outputs": [],
156 | "source": [
157 | "pd.read_sql('select * from alquiler_2', conn)"
158 | ]
159 | },
160 | {
161 | "cell_type": "markdown",
162 | "metadata": {},
163 | "source": [
164 | "Agregamos los datos a la tabla existente"
165 | ]
166 | },
167 | {
168 | "cell_type": "code",
169 | "execution_count": null,
170 | "metadata": {},
171 | "outputs": [],
172 | "source": [
173 | "alquiler.to_sql('alquiler_2', conn, index=False, if_exists='append')"
174 | ]
175 | },
176 | {
177 | "cell_type": "code",
178 | "execution_count": null,
179 | "metadata": {},
180 | "outputs": [],
181 | "source": [
182 | "pd.read_sql('select * from alquiler_2 limit 5', conn) "
183 | ]
184 | },
185 | {
186 | "cell_type": "markdown",
187 | "metadata": {},
188 | "source": [
189 | "## Cierre de conexión"
190 | ]
191 | },
192 | {
193 | "cell_type": "code",
194 | "execution_count": null,
195 | "metadata": {},
196 | "outputs": [],
197 | "source": [
198 | "conn.close()"
199 | ]
200 | },
201 | {
202 | "cell_type": "markdown",
203 | "metadata": {},
204 | "source": [
205 | "#### Ejercicio\n",
206 | "\n",
207 | "Crea una BD de sqlite nueva donde cargues información de alojamientos y barrios de Madrid de AirBnB. La información está disponible [aquí](http://insideairbnb.com/get-the-data.html). Los ficheros a cargar son `listings.csv` y `neighbourhoods.csv`.\n",
208 | "\n",
209 | "Una vez cargados, prueba a hacer algunas consultas que sean de tu interés."
210 | ]
211 | },
212 | {
213 | "cell_type": "code",
214 | "execution_count": null,
215 | "metadata": {},
216 | "outputs": [],
217 | "source": []
218 | }
219 | ],
220 | "metadata": {
221 | "kernelspec": {
222 | "display_name": "libropython",
223 | "language": "python",
224 | "name": "libropython"
225 | },
226 | "language_info": {
227 | "codemirror_mode": {
228 | "name": "ipython",
229 | "version": 3
230 | },
231 | "file_extension": ".py",
232 | "mimetype": "text/x-python",
233 | "name": "python",
234 | "nbconvert_exporter": "python",
235 | "pygments_lexer": "ipython3",
236 | "version": "3.7.3"
237 | }
238 | },
239 | "nbformat": 4,
240 | "nbformat_minor": 2
241 | }
242 |
--------------------------------------------------------------------------------
/notebooks/13_produccion.ipynb:
--------------------------------------------------------------------------------
1 | {
2 | "cells": [
3 | {
4 | "cell_type": "markdown",
5 | "metadata": {},
6 | "source": [
7 | "# Producción\n",
8 | "\n",
9 | "Hasta el momento, solo nos hemos preocupado de las fases de exploración y desarrollo. En ellas, prima la interactividad del entorno y el objetivo es que el equipo encargado de esta fase sea lo más productivo posible.\n",
10 | "\n",
11 | "A la hora de pasar a producción, cambian las prioridades. Cobran importancia:\n",
12 | "\n",
13 | "* Automatización: ya no queremos ni necesitamos interactividad, sino procesos que corran sin intervención humana\n",
14 | "* Robustez: que los procesos controlen casos extremos para no fallar, y que las partes con probabilidad de fallo (p.e. escritura de fichero, peticiones por internet, scraping, ...) se gestionen correctamente\n",
15 | "* Logging: generación de trazas del proceso (informativas, de error, ...) para que se puedan consultar como parte de una operativa normal o de error inesperado\n",
16 | "* Alarmas: en el caso de que algo vaya mal sobre un proceso crítico, debemos tener un mecanismo de aviso\n",
17 | "* Estabilidad: mientras que en desarrollo podemos actualizar a nuevas versiones del lenguaje o de sus dependencias, en producción el entorno debe ser estable, y ser actualizado únicamente bajo demanda y habiendo comprobado que todo funciona correctamente"
18 | ]
19 | },
20 | {
21 | "cell_type": "markdown",
22 | "metadata": {},
23 | "source": [
24 | "## Estructura del proyecto\n",
25 | "\n",
26 | "Los notebooks de jupyter nos permiten desarrollar en un entorno interactivo. Pero un proyecto final que pasa a producción, seguirá una estructura de módulos (carpetas) estructurada.\n",
27 | "\n",
28 | "Una estructura de ejemplo para un proyecto de clasificación de vinos:\n",
29 | "\n",
30 | "```\n",
31 | "|-- wineclassifier/ # Raíz del proyecto (repositorio git)\n",
32 | " |-- wineclassifier/\n",
33 | " |-- __init__.py # Requerido al ser un módulo, habitualmente vacío\n",
34 | " |-- config.[py|yml] # Configuración (cadenas de conexión, parametrización del modelo, ...)\n",
35 | " |-- model/ # Código relacionado con la generación del modelo\n",
36 | " |-- __init__.py\n",
37 | " |-- preprocess.py\n",
38 | " |-- regression.py \n",
39 | " |-- resources/ # Recursos como queries, ...\n",
40 | " |-- __init__py\n",
41 | " |-- queries.py\n",
42 | " |-- util/ # Útiles, bastante reutilizables entre proyectos: lógica de conexión a BD, ...\n",
43 | " |-- __init__py\n",
44 | " |-- bd.py\n",
45 | " |-- storage.py\n",
46 | " |-- requirements.txt # Dependencias con sus versiones del proyecto\n",
47 | " |-- train.py # Lanza el entrenamiento\n",
48 | " |-- predict.py # Lanza la predicción (batch, levanta API, ...)\n",
49 | " |-- README.md # Instrucciones para lanzar el proyecto y doc importante\n",
50 | "```"
51 | ]
52 | },
53 | {
54 | "cell_type": "markdown",
55 | "metadata": {},
56 | "source": [
57 | "## Referencias\n",
58 | "\n",
59 | "Más información:\n",
60 | "\n",
61 | "* [Gestión excepciones en Python](https://www.datacamp.com/community/tutorials/exception-handling-python)\n",
62 | "* [Tutorial de logging básico](https://code-maven.com/simple-logging-in-python)\n",
63 | "* [Tutorial de docker](https://djangostars.com/blog/what-is-docker-and-how-to-use-it-with-python/)\n",
64 | "* [Tutorial de testing](https://semaphoreci.com/community/tutorials/testing-python-applications-with-pytest)\n",
65 | "* [CI/CD con GitHub, Travis y más](https://github.com/ksator/continuous-integration-with-python)\n",
66 | "* [Convertir un modelo de ML en una API](https://www.datacamp.com/community/tutorials/machine-learning-models-api-python)\n",
67 | "* [Virtual envs con conda](https://uoa-eresearch.github.io/eresearch-cookbook/recipe/2014/11/20/conda/)\n",
68 | "\n",
69 | "Ejemplos de proyectos:\n",
70 | "\n",
71 | "* [Homemade machine learning](https://github.com/trekhleb/homemade-machine-learning)"
72 | ]
73 | },
74 | {
75 | "cell_type": "code",
76 | "execution_count": null,
77 | "metadata": {},
78 | "outputs": [],
79 | "source": []
80 | }
81 | ],
82 | "metadata": {
83 | "kernelspec": {
84 | "display_name": "Python 3",
85 | "language": "python",
86 | "name": "python3"
87 | },
88 | "language_info": {
89 | "codemirror_mode": {
90 | "name": "ipython",
91 | "version": 3
92 | },
93 | "file_extension": ".py",
94 | "mimetype": "text/x-python",
95 | "name": "python",
96 | "nbconvert_exporter": "python",
97 | "pygments_lexer": "ipython3",
98 | "version": "3.7.2"
99 | }
100 | },
101 | "nbformat": 4,
102 | "nbformat_minor": 2
103 | }
104 |
--------------------------------------------------------------------------------
/notebooks/14_entornos.ipynb:
--------------------------------------------------------------------------------
1 | {
2 | "cells": [
3 | {
4 | "cell_type": "markdown",
5 | "metadata": {},
6 | "source": [
7 | "# Gestión de entornos\n",
8 | "\n",
9 | "## Python y gestión de versiones\n",
10 | "\n",
11 | "Cuando iniciamos un proyecto, lo ideal es que este funcione bajo la última versión de Python y las librerías que necesitamos. Pero debemos tener mecanismos para utilizar otras versiones más antiguas, por varios motivos:\n",
12 | "\n",
13 | "* Imposición del entorno. En entornos corporativos se suele fijar la versión a utilizar por motivos de reutilización de arquitecturas o seguridad.\n",
14 | "* Evolución de proyectos antiguos.\n",
15 | "\n",
16 | "Una buena herramienta para hacerlo es [`pyenv`](https://github.com/pyenv/pyenv)\n",
17 | "\n",
18 | "### pyenv\n",
19 | "\n",
20 | "`pyenv` es un gestor de versiones de Python. Permite tener instaladas varias versiones y cambiar entre ellas fácilmente."
21 | ]
22 | },
23 | {
24 | "cell_type": "markdown",
25 | "metadata": {},
26 | "source": [
27 | "##### Ejercicio\n",
28 | "\n",
29 | "Instala pyenv y ejecútalo sin argumentos. Examina los comandos útiles que muestra y entiende qué es lo que hacen."
30 | ]
31 | },
32 | {
33 | "cell_type": "markdown",
34 | "metadata": {},
35 | "source": [
36 | "#### `pyenv install --list`\n",
37 | "\n",
38 | "Muestra todas las versiones disponibles de Python para instalar. Si te faltan las versiones más nuevas, tendrás que actualizar pyenv"
39 | ]
40 | },
41 | {
42 | "cell_type": "markdown",
43 | "metadata": {},
44 | "source": [
45 | "#### `pyenv install `\n",
46 | "\n",
47 | "Instala una versión específica de python"
48 | ]
49 | },
50 | {
51 | "cell_type": "markdown",
52 | "metadata": {},
53 | "source": [
54 | "#### `pyenv versions`\n",
55 | "\n",
56 | "Consulta las versiones instaladas."
57 | ]
58 | },
59 | {
60 | "cell_type": "markdown",
61 | "metadata": {},
62 | "source": [
63 | "#### `pyenv global `\n",
64 | "\n",
65 | "Setea una versión concreta de python como la global del sistema. Si compartes el equipo con otros desarrolladores y quieres instalarla solo en tu usuario, utiliza `user` en lugar de `global`.\n",
66 | "\n",
67 | "Para consultar qué versión tienes actualmente, puedes lanzar el comando sin el último parámetro. Es decir, `pyenv global`"
68 | ]
69 | },
70 | {
71 | "cell_type": "markdown",
72 | "metadata": {},
73 | "source": [
74 | "##### Ejercicio\n",
75 | "\n",
76 | "1. Instala las siguientes versiones de python:\n",
77 | "\n",
78 | " * 3.5\n",
79 | " * 3.7\n",
80 | " * 3.8\n",
81 | "\n",
82 | "2. Comprueba que estén instaladas correctamente\n",
83 | "3. Activa cada una de ellas, consulta la versión y ejecuta comandos para comprobar que estás en esa versión\n",
84 | "\n",
85 | "Algunos comandos que solo funcionan en versiones específicas son:\n",
86 | "\n",
87 | "```\n",
88 | "# Solo funciona en 3.7 y 3.8\n",
89 | "nombre = \"Pepa\"\n",
90 | "f\"Hola {nombre}\"\n",
91 | "\n",
92 | "# Solo funciona en 3.8\n",
93 | "print(cadena := \"Hola Pepa\")\n",
94 | "```\n",
95 | "\n",
96 | "_Nota_: las versiones las especifico aquí solo hasta la _minor_. Elige la _patch_ más reciente dentro de cada una de ellas. Recuerda que las versiones son `_major_._minor_._patch_`.\n",
97 | "_Nota_: si te interesa consultar las últimas funcionalidades implementadas en python 3.8, puedes hacerlo [aquí](https://realpython.com/python38-new-features/)"
98 | ]
99 | },
100 | {
101 | "cell_type": "markdown",
102 | "metadata": {},
103 | "source": [
104 | "## Entornos virtuales y gestión de dependencias\n",
105 | "\n",
106 | "Tanto el lenguaje en sí, como las librerías son algo vivo, que evoluciona. Un proyecto puede funcionar correctamente bajo una versión de Python y de las librerías que utilice (p.e. `pandas`, `seaborn`) y fallar en otras versiones.\n",
107 | "\n",
108 | "Por este motivo, necesitamos una herramienta que fije estas versiones y asegure unicidad en el equipo de desarrollo y los diferentes entornos.\n",
109 | "\n",
110 | "Esto se puede gestionar mediante los entornos virtuales. Hasta ahora, los paquetes los instalábamos a nivel global, para nuestro usuario o todos los usuarios de la máquina. Con los entornos virtuales, podemos tener un conjunto de paquetes y sus versiones por cada proyecto.\n",
111 | "\n",
112 | "Para la gestión de paquetes, en entornos productivos se suele utilizar [`pip`](https://pypi.org/project/pip/).\n",
113 | "\n",
114 | "_Nota_: Anaconda trae su propio gestor de paquetes, [`conda`](https://pypi.org/project/conda/)"
115 | ]
116 | },
117 | {
118 | "cell_type": "markdown",
119 | "metadata": {},
120 | "source": [
121 | "### Opción 1: pipenv (recomendado)\n",
122 | "\n",
123 | "[`pipenv`](https://pipenv-fork.readthedocs.io/en/latest/) gestiona entornos virtuales y los sincroniza con lo instalado vía `pip`.\n",
124 | "\n",
125 | "#### Creación del entorno virtual\n",
126 | "\n",
127 | "La primera vez que lanzamos pipenv sobre una carpeta que no contiene un `Pipfile`, crea el entorno virtual vacío. Si existiera un `requirements.txt`, crea un entorno virtual respetando las dependencias listadas en el fichero. A partir de ese momento, podemos utilizar `pipenv` como si fuera `pip` para instalar dependencias.\n",
128 | "\n",
129 | "```\n",
130 | "cd my_project\n",
131 | "pipenv install\n",
132 | "```\n",
133 | "\n",
134 | "Esto crea dos ficheros nuevos que, idealmente, estarán ambos en el control de versiones del proyecto. `Pipfile` recoge los paquetes instalados, si son necesarios únicamente en desarrollo o producción y meta información relacionada. `Pipfile.lock` recoge las versiones concretas de las dependencias y subdependencias y asegura que la creación del entorno sea determinista."
135 | ]
136 | },
137 | {
138 | "cell_type": "markdown",
139 | "metadata": {},
140 | "source": [
141 | "##### Ejercicio\n",
142 | "\n",
143 | "Crea una carpeta nueva y ejecuta `pipenv install` dentro. Examina la salida y compréndela."
144 | ]
145 | },
146 | {
147 | "cell_type": "markdown",
148 | "metadata": {},
149 | "source": [
150 | "#### Ejecución dentro del entorno virtual\n",
151 | "\n",
152 | "Tenemos dos opciones para lanzar nuestros scripts de python dentro del entorno: `pipenv run` para un comando específico, o `pipenv shell` para activar una consola.\n",
153 | "\n",
154 | "Un ejemplo con `run`:\n",
155 | "\n",
156 | "```\n",
157 | "pipenv run python my_script.py\n",
158 | "```\n",
159 | "\n",
160 | "Y lo equivalente con `shell`:\n",
161 | "\n",
162 | "```\n",
163 | "pipenv shell\n",
164 | "python my_script.py\n",
165 | "exit\n",
166 | "```"
167 | ]
168 | },
169 | {
170 | "cell_type": "markdown",
171 | "metadata": {},
172 | "source": [
173 | "#### Instalación de nuevas dependencias\n",
174 | "\n",
175 | "Para instalar nuevas dependencias, utilizaremos `pipenv` como si fuera `pip`.\n",
176 | "\n",
177 | "Por ejemplo, para instalar `pandas`:\n",
178 | "\n",
179 | "```\n",
180 | "pipenv install pandas\n",
181 | "```\n",
182 | "\n",
183 | "También podemos especificar dependencias que solo son necesarias en desarrollo con el flag `--dev`. Por ejemplo, para formateadores, utilidades de testing o similares.\n",
184 | "\n",
185 | "```\n",
186 | "pipenv install pandas --dev\n",
187 | "```"
188 | ]
189 | },
190 | {
191 | "cell_type": "markdown",
192 | "metadata": {},
193 | "source": [
194 | "##### Ejercicio\n",
195 | "\n",
196 | "Crea dos carpetas nuevas, cada una con su propio entorno virtual. En una de ellas instala unos paquetes y en la otra, otros. Comprueba que desde el otro entorno virtual no están disponibles."
197 | ]
198 | },
199 | {
200 | "cell_type": "markdown",
201 | "metadata": {},
202 | "source": [
203 | "#### Asociar un kernel de jupyter a un entorno de pipenv\n",
204 | "\n",
205 | "Un kernel de jupyter es el entorno donde ejecutar notebooks. Por defecto, tenemos algunos instalados por el sistema: uno de Python 3 y quizás otro de Python 2. Pero podemos crear kernels asociados a nuestros entornos de `pipenv` y que estén sincronizados con estos: si instalamos una nueva librería en el entorno de pipenv, estará disponible en los notebooks asociados a dicho kernel.\n",
206 | "\n",
207 | "Para crear un kernel de jupyter, tendrás que situarte en la raíz de tu proyecto (donde está el `Pipfile`) y lanzar:\n",
208 | "\n",
209 | "```\n",
210 | "# Abro una consola dentro del entorno de pipenv\n",
211 | "pipenv shell\n",
212 | "\n",
213 | "# Creo un kernel con nombre MI_PRUEBA_KERNEL_PIPENV\n",
214 | "python -m ipykernel install --user --name='MI_PRUEBA_KERNEL_PIPENV'\n",
215 | "\n",
216 | "# Salgo de la consola de pipenv\n",
217 | "exit\n",
218 | "```\n",
219 | "\n",
220 | "Una vez hecho esto, verás tu nuevo kernel en el menú de jupyter, en Kernel / Change Kernel / nombre_del_kernel . Si lo seleccionas, asociarás dicho notebook al kernel elegido."
221 | ]
222 | },
223 | {
224 | "cell_type": "markdown",
225 | "metadata": {},
226 | "source": [
227 | "##### Ejercicio\n",
228 | "\n",
229 | "Crea un kernel en cada uno de los dos entornos del ejercicio previo, luego dos notebooks asociados uno al primero y otro al segundo, y prueba qu"
230 | ]
231 | },
232 | {
233 | "cell_type": "markdown",
234 | "metadata": {},
235 | "source": [
236 | "### Opción 2: requirements.txt\n",
237 | "\n",
238 | "Esta opción es algo antigua, la describimos aquí por si te toca dar soporte a un proyecto que se gestionaba de esta forma y no admite actualización a `pipenv`.\n",
239 | "\n",
240 | "#### Creación del entorno virtual\n",
241 | "\n",
242 | "Solo hace falta hacerlo una vez, normalmente cuando creamos o clonamos el proyecto:\n",
243 | "\n",
244 | "```\n",
245 | "python3 -m venv env\n",
246 | "```\n",
247 | "\n",
248 | "Nos crea una carpeta `env/` en nuestro proyecto donde se guardarán todas las librerías. Si estamos en un repositorio de `git`, hay que incluir esta carpeta en el `.gitignore`.\n",
249 | "\n",
250 | "#### Activar y desactivar el entorno virtual\n",
251 | "\n",
252 | "Cuando nos pongamos a desarrollar, tendremos que activarlo. Esto implica una alteración de las rutas a `python` y las librerías del proyecto. Tendremos disponible lo instalado en `env/` en lugar de lo instalado de forma global.\n",
253 | "\n",
254 | "```\n",
255 | "source env/bin/activate\n",
256 | "```\n",
257 | "\n",
258 | "Para volver al entorno global del ordenador, desactivamos el entorno virtual:\n",
259 | "\n",
260 | "```\n",
261 | "deactivate\n",
262 | "```\n",
263 | "\n",
264 | "#### Instalación y actualización de dependencias\n",
265 | "\n",
266 | "_Nota_: estos pasos hay que hacerlos siempre con el entorno virtual activo.\n",
267 | "\n",
268 | "Para instalar las dependencias necesarias (p.e. tras clonar el proyecto por primera vez, o tras traernos código nuevo que incorpora nuevas dependencias, ...):\n",
269 | "\n",
270 | "```\n",
271 | "pip install -r requirements.txt\n",
272 | "```\n",
273 | "\n",
274 | "Y cada vez que instalamos o actualizamos una dependencia en nuestro proyecto (con `pip install ...`), debemos actualizar el listado de dependencias, guardado en `requirements.txt`. Para hacerlo:\n",
275 | "\n",
276 | "```\n",
277 | "pip freeze > requirements.txt\n",
278 | "```\n",
279 | "\n",
280 | "El fichero de `requirements.txt` tiene esta pinta:\n",
281 | "\n",
282 | "```\n",
283 | "nltk==3.4\n",
284 | "numpy==1.16.0\n",
285 | "pandas==0.24.0\n",
286 | "scikit-learn==0.20.2\n",
287 | "scipy==1.2.0\n",
288 | "```\n",
289 | "\n",
290 | "Puedes ver más sobre el formato que puede tener este fichero [aquí](https://pip.pypa.io/en/stable/user_guide/#requirements-files)."
291 | ]
292 | },
293 | {
294 | "cell_type": "code",
295 | "execution_count": null,
296 | "metadata": {},
297 | "outputs": [],
298 | "source": []
299 | }
300 | ],
301 | "metadata": {
302 | "kernelspec": {
303 | "display_name": "libropython",
304 | "language": "python",
305 | "name": "libropython"
306 | },
307 | "language_info": {
308 | "codemirror_mode": {
309 | "name": "ipython",
310 | "version": 3
311 | },
312 | "file_extension": ".py",
313 | "mimetype": "text/x-python",
314 | "name": "python",
315 | "nbconvert_exporter": "python",
316 | "pygments_lexer": "ipython3",
317 | "version": "3.7.3"
318 | }
319 | },
320 | "nbformat": 4,
321 | "nbformat_minor": 2
322 | }
323 |
--------------------------------------------------------------------------------
/notebooks/dat/README.md:
--------------------------------------------------------------------------------
1 | # Fuentes de datos
2 |
3 | ## Precios de venta y alquiler históricos en Madrid
4 |
5 | Los 4 ficheros se han descargado de [idealista](https://www.idealista.com/informes-precio-vivienda)
6 |
7 |
--------------------------------------------------------------------------------
/notebooks/dat/airquality.csv:
--------------------------------------------------------------------------------
1 | "ozone","wind","temp","month","day","solar_r"
2 | 41,7.4,67,5,1,190
3 | 36,8,72,5,2,118
4 | 12,12.6,74,5,3,149
5 | 18,11.5,62,5,4,313
6 | ,14.3,56,5,5,
7 | 28,14.9,66,5,6,
8 | 23,8.6,65,5,7,299
9 | 19,13.8,59,5,8,99
10 | 8,20.1,61,5,9,19
11 | ,8.6,69,5,10,194
12 | 7,6.9,74,5,11,
13 | 16,9.7,69,5,12,256
14 | 11,9.2,66,5,13,290
15 | 14,10.9,68,5,14,274
16 | 18,13.2,58,5,15,65
17 | 14,11.5,64,5,16,334
18 | 34,12,66,5,17,307
19 | 6,18.4,57,5,18,78
20 | 30,11.5,68,5,19,322
21 | 11,9.7,62,5,20,44
22 | 1,9.7,59,5,21,8
23 | 11,16.6,73,5,22,320
24 | 4,9.7,61,5,23,25
25 | 32,12,61,5,24,92
26 | ,16.6,57,5,25,66
27 | ,14.9,58,5,26,266
28 | ,8,57,5,27,
29 | 23,12,67,5,28,13
30 | 45,14.9,81,5,29,252
31 | 115,5.7,79,5,30,223
32 | 37,7.4,76,5,31,279
33 | ,8.6,78,6,1,286
34 | ,9.7,74,6,2,287
35 | ,16.1,67,6,3,242
36 | ,9.2,84,6,4,186
37 | ,8.6,85,6,5,220
38 | ,14.3,79,6,6,264
39 | 29,9.7,82,6,7,127
40 | ,6.9,87,6,8,273
41 | 71,13.8,90,6,9,291
42 | 39,11.5,87,6,10,323
43 | ,10.9,93,6,11,259
44 | ,9.2,92,6,12,250
45 | 23,8,82,6,13,148
46 | ,13.8,80,6,14,332
47 | ,11.5,79,6,15,322
48 | 21,14.9,77,6,16,191
49 | 37,20.7,72,6,17,284
50 | 20,9.2,65,6,18,37
51 | 12,11.5,73,6,19,120
52 | 13,10.3,76,6,20,137
53 | ,6.3,77,6,21,150
54 | ,1.7,76,6,22,59
55 | ,4.6,76,6,23,91
56 | ,6.3,76,6,24,250
57 | ,8,75,6,25,135
58 | ,8,78,6,26,127
59 | ,10.3,73,6,27,47
60 | ,11.5,80,6,28,98
61 | ,14.9,77,6,29,31
62 | ,8,83,6,30,138
63 | 135,4.1,84,7,1,269
64 | 49,9.2,85,7,2,248
65 | 32,9.2,81,7,3,236
66 | ,10.9,84,7,4,101
67 | 64,4.6,83,7,5,175
68 | 40,10.9,83,7,6,314
69 | 77,5.1,88,7,7,276
70 | 97,6.3,92,7,8,267
71 | 97,5.7,92,7,9,272
72 | 85,7.4,89,7,10,175
73 | ,8.6,82,7,11,139
74 | 10,14.3,73,7,12,264
75 | 27,14.9,81,7,13,175
76 | ,14.9,91,7,14,291
77 | 7,14.3,80,7,15,48
78 | 48,6.9,81,7,16,260
79 | 35,10.3,82,7,17,274
80 | 61,6.3,84,7,18,285
81 | 79,5.1,87,7,19,187
82 | 63,11.5,85,7,20,220
83 | 16,6.9,74,7,21,7
84 | ,9.7,81,7,22,258
85 | ,11.5,82,7,23,295
86 | 80,8.6,86,7,24,294
87 | 108,8,85,7,25,223
88 | 20,8.6,82,7,26,81
89 | 52,12,86,7,27,82
90 | 82,7.4,88,7,28,213
91 | 50,7.4,86,7,29,275
92 | 64,7.4,83,7,30,253
93 | 59,9.2,81,7,31,254
94 | 39,6.9,81,8,1,83
95 | 9,13.8,81,8,2,24
96 | 16,7.4,82,8,3,77
97 | 78,6.9,86,8,4,
98 | 35,7.4,85,8,5,
99 | 66,4.6,87,8,6,
100 | 122,4,89,8,7,255
101 | 89,10.3,90,8,8,229
102 | 110,8,90,8,9,207
103 | ,8.6,92,8,10,222
104 | ,11.5,86,8,11,137
105 | 44,11.5,86,8,12,192
106 | 28,11.5,82,8,13,273
107 | 65,9.7,80,8,14,157
108 | ,11.5,79,8,15,64
109 | 22,10.3,77,8,16,71
110 | 59,6.3,79,8,17,51
111 | 23,7.4,76,8,18,115
112 | 31,10.9,78,8,19,244
113 | 44,10.3,78,8,20,190
114 | 21,15.5,77,8,21,259
115 | 9,14.3,72,8,22,36
116 | ,12.6,75,8,23,255
117 | 45,9.7,79,8,24,212
118 | 168,3.4,81,8,25,238
119 | 73,8,86,8,26,215
120 | ,5.7,88,8,27,153
121 | 76,9.7,97,8,28,203
122 | 118,2.3,94,8,29,225
123 | 84,6.3,96,8,30,237
124 | 85,6.3,94,8,31,188
125 | 96,6.9,91,9,1,167
126 | 78,5.1,92,9,2,197
127 | 73,2.8,93,9,3,183
128 | 91,4.6,93,9,4,189
129 | 47,7.4,87,9,5,95
130 | 32,15.5,84,9,6,92
131 | 20,10.9,80,9,7,252
132 | 23,10.3,78,9,8,220
133 | 21,10.9,75,9,9,230
134 | 24,9.7,73,9,10,259
135 | 44,14.9,81,9,11,236
136 | 21,15.5,76,9,12,259
137 | 28,6.3,77,9,13,238
138 | 9,10.9,71,9,14,24
139 | 13,11.5,71,9,15,112
140 | 46,6.9,78,9,16,237
141 | 18,13.8,67,9,17,224
142 | 13,10.3,76,9,18,27
143 | 24,10.3,68,9,19,238
144 | 16,8,82,9,20,201
145 | 13,12.6,64,9,21,238
146 | 23,9.2,71,9,22,14
147 | 36,10.3,81,9,23,139
148 | 7,10.3,69,9,24,49
149 | 14,16.6,63,9,25,20
150 | 30,6.9,70,9,26,193
151 | ,13.2,77,9,27,145
152 | 14,14.3,75,9,28,191
153 | 18,8,76,9,29,131
154 | 20,11.5,68,9,30,223
155 |
--------------------------------------------------------------------------------
/notebooks/dat/economist-countries-data.csv:
--------------------------------------------------------------------------------
1 | "","Country","HDI.Rank","HDI","CPI","Region"
2 | "1","Afghanistan",172,0.398,1.5,"Asia Pacific"
3 | "2","Albania",70,0.739,3.1,"East EU Cemt Asia"
4 | "3","Algeria",96,0.698,2.9,"MENA"
5 | "4","Angola",148,0.486,2,"SSA"
6 | "5","Argentina",45,0.797,3,"Americas"
7 | "6","Armenia",86,0.716,2.6,"East EU Cemt Asia"
8 | "7","Australia",2,0.929,8.8,"Asia Pacific"
9 | "8","Austria",19,0.885,7.8,"EU W. Europe"
10 | "9","Azerbaijan",91,0.7,2.4,"East EU Cemt Asia"
11 | "10","Bahamas",53,0.771,7.3,"Americas"
12 | "11","Bahrain",42,0.806,5.1,"MENA"
13 | "12","Bangladesh",146,0.5,2.7,"Asia Pacific"
14 | "13","Barbados",47,0.793,7.8,"Americas"
15 | "14","Belarus",65,0.756,2.4,"East EU Cemt Asia"
16 | "15","Belgium",18,0.886,7.5,"EU W. Europe"
17 | "16","Benin",167,0.427,3,"SSA"
18 | "17","Bhutan",141,0.522,5.7,"Asia Pacific"
19 | "18","Bolivia",108,0.663,2.8,"Americas"
20 | "19","Bosnia and Herzegovina",74,0.733,3.2,"East EU Cemt Asia"
21 | "20","Botswana",118,0.633,6.1,"SSA"
22 | "21","Brazil",84,0.718,3.8,"Americas"
23 | "22","Britain",28,0.863,7.8,"EU W. Europe"
24 | "23","Bulgaria",55,0.771,3.3,"EU W. Europe"
25 | "24","Burkina Faso",181,0.331,3,"SSA"
26 | "25","Burundi",185,0.316,1.9,"SSA"
27 | "26","Cambodia",139,0.523,2.1,"Asia Pacific"
28 | "27","Cameroon",150,0.482,2.5,"SSA"
29 | "28","Canada",6,0.908,8.7,"Americas"
30 | "29","Cape Verde",133,0.568,5.5,"SSA"
31 | "30","Central African Republic",179,0.343,2.2,"SSA"
32 | "31","Chad",183,0.328,2,"SSA"
33 | "32","Chile",44,0.805,7.2,"Americas"
34 | "33","China",101,0.687,3.6,"Asia Pacific"
35 | "34","Colombia",87,0.71,3.4,"Americas"
36 | "35","Comoros",163,0.433,2.4,"SSA"
37 | "36","Congo",187,0.286,2,"SSA"
38 | "37","Congo Republic",137,0.533,2.2,"SSA"
39 | "38","Costa Rica",69,0.744,4.8,"Americas"
40 | "39","Côte d'Ivoire",170,0.4,2.2,"SSA"
41 | "40","Croatia",46,0.796,4,"East EU Cemt Asia"
42 | "41","Cuba",51,0.776,4.2,"Americas"
43 | "42","Cyprus",31,0.84,6.3,"EU W. Europe"
44 | "43","Czech Republic",27,0.865,4.4,"EU W. Europe"
45 | "44","Denmark",16,0.895,9.4,"EU W. Europe"
46 | "45","Djibouti",165,0.43,3,"SSA"
47 | "46","Dominica",81,0.724,5.2,"Americas"
48 | "47","Dominican Republic",98,0.689,2.6,"Americas"
49 | "48","Ecuador",83,0.72,2.7,"Americas"
50 | "49","Egypt",113,0.644,2.9,"MENA"
51 | "50","El Salvador",105,0.674,3.4,"Americas"
52 | "51","Equatorial Guinea",136,0.537,1.9,"SSA"
53 | "52","Eritrea",177,0.349,2.5,"SSA"
54 | "53","Estonia",34,0.835,6.4,"EU W. Europe"
55 | "54","Ethiopia",174,0.363,2.7,"SSA"
56 | "55","Finland",22,0.882,9.4,"EU W. Europe"
57 | "56","France",20,0.884,7,"EU W. Europe"
58 | "57","Gabon",106,0.674,3,"SSA"
59 | "58","Gambia",168,0.42,3.5,"SSA"
60 | "59","Georgia",75,0.733,4.1,"East EU Cemt Asia"
61 | "60","Germany",9,0.905,8,"EU W. Europe"
62 | "61","Ghana",135,0.541,3.9,"SSA"
63 | "62","Greece",29,0.861,3.4,"EU W. Europe"
64 | "63","Guatemala",131,0.574,2.7,"Americas"
65 | "64","Guinea",178,0.344,2.1,"SSA"
66 | "65","Guinea-Bissau",176,0.353,2.2,"SSA"
67 | "66","Guyana",117,0.633,2.5,"Americas"
68 | "67","Haiti",158,0.454,1.8,"Americas"
69 | "68","Honduras",121,0.625,2.6,"Americas"
70 | "69","Hong Kong",13,0.898,8.4,"Asia Pacific"
71 | "70","Hungary",38,0.816,4.6,"EU W. Europe"
72 | "71","Iceland",14,0.898,8.3,"EU W. Europe"
73 | "72","India",134,0.547,3.1,"Asia Pacific"
74 | "73","Indonesia",124,0.617,3,"Asia Pacific"
75 | "74","Iran",88,0.707,2.7,"MENA"
76 | "75","Iraq",132,0.573,1.8,"MENA"
77 | "76","Ireland",7,0.908,7.5,"EU W. Europe"
78 | "77","Israel",17,0.888,5.8,"MENA"
79 | "78","Italy",24,0.874,3.9,"EU W. Europe"
80 | "79","Jamaica",79,0.727,3.3,"Americas"
81 | "80","Japan",12,0.901,8,"Asia Pacific"
82 | "81","Jordan",95,0.698,4.5,"MENA"
83 | "82","Kazakhstan",68,0.745,2.7,"East EU Cemt Asia"
84 | "83","Kenya",143,0.509,2.2,"SSA"
85 | "84","Kiribati",122,0.624,3.1,"Asia Pacific"
86 | "85","Korea (South)",15,0.897,5.4,"Asia Pacific"
87 | "86","Kuwait",63,0.76,4.6,"MENA"
88 | "87","Kyrgyzstan",126,0.615,2.1,"East EU Cemt Asia"
89 | "88","Laos",138,0.524,2.2,"Asia Pacific"
90 | "89","Latvia",43,0.805,4.2,"EU W. Europe"
91 | "90","Lebanon",71,0.739,2.5,"MENA"
92 | "91","Lesotho",160,0.45,3.5,"SSA"
93 | "92","Liberia",182,0.329,3.2,"SSA"
94 | "93","Libya",64,0.76,2,"MENA"
95 | "94","Lithuania",40,0.81,4.8,"EU W. Europe"
96 | "95","Luxembourg",25,0.867,8.5,"EU W. Europe"
97 | "96","Madagascar",151,0.48,3,"SSA"
98 | "97","Malawi",171,0.4,3,"SSA"
99 | "98","Malaysia",61,0.761,4.3,"Asia Pacific"
100 | "99","Maldives",109,0.661,2.5,"Asia Pacific"
101 | "100","Mali",175,0.359,2.8,"SSA"
102 | "101","Malta",36,0.832,5.6,"EU W. Europe"
103 | "102","Mauritania",159,0.453,2.4,"SSA"
104 | "103","Mauritius",77,0.728,5.1,"SSA"
105 | "104","Mexico",57,0.77,3,"Americas"
106 | "105","Moldova",111,0.649,2.9,"East EU Cemt Asia"
107 | "106","Mongolia",110,0.653,2.7,"Asia Pacific"
108 | "107","Montenegro",54,0.771,4,"East EU Cemt Asia"
109 | "108","Morocco",130,0.582,3.4,"MENA"
110 | "109","Mozambique",184,0.322,2.7,"SSA"
111 | "110","Myanmar",149,0.483,1.5,"Asia Pacific"
112 | "111","Namibia",120,0.625,4.4,"SSA"
113 | "112","Nepal",157,0.458,2.2,"Asia Pacific"
114 | "113","Netherlands",3,0.91,8.9,"EU W. Europe"
115 | "114","New Zealand",5,0.908,9.5,"Asia Pacific"
116 | "115","Nicaragua",129,0.589,2.5,"Americas"
117 | "116","Niger",186,0.295,2.5,"SSA"
118 | "117","Nigeria",156,0.459,2.4,"SSA"
119 | "118","Norway",1,0.943,9,"EU W. Europe"
120 | "119","Oman",89,0.705,4.8,"MENA"
121 | "120","Pakistan",145,0.504,2.5,"Asia Pacific"
122 | "121","Panama",58,0.768,3.3,"Americas"
123 | "122","Papua New Guinea",153,0.466,2.2,"Asia Pacific"
124 | "123","Paraguay",107,0.665,2.2,"Americas"
125 | "124","Peru",80,0.725,3.4,"Americas"
126 | "125","Philippines",112,0.644,2.6,"Asia Pacific"
127 | "126","Poland",39,0.813,5.5,"EU W. Europe"
128 | "127","Portugal",41,0.809,6.1,"EU W. Europe"
129 | "128","Qatar",37,0.831,7.2,"MENA"
130 | "129","Romania",50,0.781,3.6,"EU W. Europe"
131 | "130","Russia",66,0.755,2.4,"East EU Cemt Asia"
132 | "131","Rwanda",166,0.429,5,"SSA"
133 | "132","Saint Lucia",82,0.723,7,"Americas"
134 | "133","Saint Vincent and the Grenadines",85,0.717,5.8,"Americas"
135 | "134","Samoa",99,0.688,3.9,"Asia Pacific"
136 | "135","Saudi Arabia",56,0.77,4.4,"MENA"
137 | "136","Senegal",155,0.459,2.9,"SSA"
138 | "137","Serbia",59,0.766,3.3,"East EU Cemt Asia"
139 | "138","Seychelles",52,0.773,4.8,"SSA"
140 | "139","Sierra Leone",180,0.336,2.5,"SSA"
141 | "140","Singapore",26,0.866,9.2,"Asia Pacific"
142 | "141","Slovakia",35,0.834,4,"EU W. Europe"
143 | "142","Slovenia",21,0.884,5.9,"EU W. Europe"
144 | "143","Solomon Islands",142,0.51,2.7,"Asia Pacific"
145 | "144","South Africa",123,0.619,4.1,"SSA"
146 | "145","Spain",23,0.878,6.2,"EU W. Europe"
147 | "146","Sri Lanka",97,0.691,3.3,"Asia Pacific"
148 | "147","Sudan",169,0.408,1.6,"SSA"
149 | "148","Suriname",104,0.68,3,"Americas"
150 | "149","Swaziland",140,0.522,3.1,"SSA"
151 | "150","Sweden",10,0.904,9.3,"EU W. Europe"
152 | "151","Switzerland",11,0.903,8.8,"EU W. Europe"
153 | "152","Syria",119,0.632,2.6,"MENA"
154 | "153","Tajikistan",127,0.607,2.3,"East EU Cemt Asia"
155 | "154","Tanzania",152,0.466,3,"SSA"
156 | "155","Thailand",103,0.682,3.4,"Asia Pacific"
157 | "156","Timor-Leste",147,0.495,2.4,"Asia Pacific"
158 | "157","Togo",162,0.435,2.4,"SSA"
159 | "158","Tonga",90,0.704,3.1,"Asia Pacific"
160 | "159","Trinidad and Tobago",62,0.76,3.2,"Americas"
161 | "160","Tunisia",94,0.698,3.8,"MENA"
162 | "161","Turkey",92,0.699,4.2,"East EU Cemt Asia"
163 | "162","Turkmenistan",102,0.686,1.6,"East EU Cemt Asia"
164 | "163","Uganda",161,0.446,2.4,"SSA"
165 | "164","Ukraine",76,0.729,2.3,"East EU Cemt Asia"
166 | "165","United Arab Emirates",30,0.846,6.8,"MENA"
167 | "166","United States",4,0.91,7.1,"Americas"
168 | "167","Uruguay",48,0.783,7,"Americas"
169 | "168","Uzbekistan",115,0.641,1.6,"East EU Cemt Asia"
170 | "169","Vanuatu",125,0.617,3.5,"Asia Pacific"
171 | "170","Venezuela",73,0.735,1.9,"Americas"
172 | "171","Yemen",154,0.462,2.1,"MENA"
173 | "172","Zambia",164,0.43,3.2,"SSA"
174 | "173","Zimbabwe",173,0.376,2.2,"SSA"
175 |
--------------------------------------------------------------------------------
/notebooks/dat/neighbourhoods.csv:
--------------------------------------------------------------------------------
1 | neighbourhood_group,neighbourhood
2 | Arganzuela,Acacias
3 | Arganzuela,Atocha
4 | Arganzuela,Chopera
5 | Arganzuela,Delicias
6 | Arganzuela,Imperial
7 | Arganzuela,Legazpi
8 | Arganzuela,Palos de Moguer
9 | Barajas,Aeropuerto
10 | Barajas,Alameda de Osuna
11 | Barajas,Casco Histórico de Barajas
12 | Barajas,Corralejos
13 | Barajas,Timón
14 | Carabanchel,Abrantes
15 | Carabanchel,Buenavista
16 | Carabanchel,Comillas
17 | Carabanchel,Opañel
18 | Carabanchel,Puerta Bonita
19 | Carabanchel,San Isidro
20 | Carabanchel,Vista Alegre
21 | Centro,Cortes
22 | Centro,Embajadores
23 | Centro,Justicia
24 | Centro,Palacio
25 | Centro,Sol
26 | Centro,Universidad
27 | Chamartín,Castilla
28 | Chamartín,Ciudad Jardín
29 | Chamartín,El Viso
30 | Chamartín,Hispanoamérica
31 | Chamartín,Nueva España
32 | Chamartín,Prosperidad
33 | Chamberí,Almagro
34 | Chamberí,Arapiles
35 | Chamberí,Gaztambide
36 | Chamberí,Rios Rosas
37 | Chamberí,Trafalgar
38 | Chamberí,Vallehermoso
39 | Ciudad Lineal,Atalaya
40 | Ciudad Lineal,Colina
41 | Ciudad Lineal,Concepción
42 | Ciudad Lineal,Costillares
43 | Ciudad Lineal,Pueblo Nuevo
44 | Ciudad Lineal,Quintana
45 | Ciudad Lineal,San Juan Bautista
46 | Ciudad Lineal,San Pascual
47 | Ciudad Lineal,Ventas
48 | Fuencarral - El Pardo,El Goloso
49 | Fuencarral - El Pardo,El Pardo
50 | Fuencarral - El Pardo,Fuentelareina
51 | Fuencarral - El Pardo,La Paz
52 | Fuencarral - El Pardo,Mirasierra
53 | Fuencarral - El Pardo,Peñagrande
54 | Fuencarral - El Pardo,Pilar
55 | Fuencarral - El Pardo,Valverde
56 | Hortaleza,Apostol Santiago
57 | Hortaleza,Canillas
58 | Hortaleza,Palomas
59 | Hortaleza,Pinar del Rey
60 | Hortaleza,Piovera
61 | Hortaleza,Valdefuentes
62 | Latina,Aguilas
63 | Latina,Aluche
64 | Latina,Campamento
65 | Latina,Cármenes
66 | Latina,Cuatro Vientos
67 | Latina,Lucero
68 | Latina,Puerta del Angel
69 | Moncloa - Aravaca,Aravaca
70 | Moncloa - Aravaca,Argüelles
71 | Moncloa - Aravaca,Casa de Campo
72 | Moncloa - Aravaca,Ciudad Universitaria
73 | Moncloa - Aravaca,El Plantío
74 | Moncloa - Aravaca,Valdemarín
75 | Moncloa - Aravaca,Valdezarza
76 | Moratalaz,Fontarrón
77 | Moratalaz,Horcajo
78 | Moratalaz,Marroquina
79 | Moratalaz,Media Legua
80 | Moratalaz,Pavones
81 | Moratalaz,Vinateros
82 | Puente de Vallecas,Entrevías
83 | Puente de Vallecas,Numancia
84 | Puente de Vallecas,Palomeras Bajas
85 | Puente de Vallecas,Palomeras Sureste
86 | Puente de Vallecas,Portazgo
87 | Puente de Vallecas,San Diego
88 | Retiro,Adelfas
89 | Retiro,Estrella
90 | Retiro,Ibiza
91 | Retiro,Jerónimos
92 | Retiro,Niño Jesús
93 | Retiro,Pacífico
94 | Salamanca,Castellana
95 | Salamanca,Fuente del Berro
96 | Salamanca,Goya
97 | Salamanca,Guindalera
98 | Salamanca,Lista
99 | Salamanca,Recoletos
100 | San Blas - Canillejas,Amposta
101 | San Blas - Canillejas,Arcos
102 | San Blas - Canillejas,Canillejas
103 | San Blas - Canillejas,Hellín
104 | San Blas - Canillejas,Rejas
105 | San Blas - Canillejas,Rosas
106 | San Blas - Canillejas,Salvador
107 | San Blas - Canillejas,Simancas
108 | Tetuán,Almenara
109 | Tetuán,Bellas Vistas
110 | Tetuán,Berruguete
111 | Tetuán,Castillejos
112 | Tetuán,Cuatro Caminos
113 | Tetuán,Valdeacederas
114 | Usera,Almendrales
115 | Usera,Moscardó
116 | Usera,Orcasitas
117 | Usera,Orcasur
118 | Usera,Pradolongo
119 | Usera,San Fermín
120 | Usera,Zofío
121 | Vicálvaro,Ambroz
122 | Vicálvaro,Casco Histórico de Vicálvaro
123 | Villa de Vallecas,Casco Histórico de Vallecas
124 | Villa de Vallecas,Santa Eugenia
125 | Villaverde,Butarque
126 | Villaverde,Los Angeles
127 | Villaverde,Los Rosales
128 | Villaverde,San Andrés
129 | Villaverde,San Cristobal
130 |
--------------------------------------------------------------------------------
/notebooks/soluciones/02_pandas.ipynb:
--------------------------------------------------------------------------------
1 | {
2 | "cells": [
3 | {
4 | "cell_type": "code",
5 | "execution_count": null,
6 | "metadata": {},
7 | "outputs": [],
8 | "source": [
9 | "# Ponemos como ruta principal la carpeta padre de \"soluciones\"\n",
10 | "# para que las rutas relativas queden igual que en la carpeta de notebooks\n",
11 | "import paths\n",
12 | "\n",
13 | "# Otras dependencias\n",
14 | "import pandas as pd"
15 | ]
16 | },
17 | {
18 | "cell_type": "markdown",
19 | "metadata": {},
20 | "source": [
21 | "### Ejercicio\n",
22 | "\n",
23 | "* Carga en un dataframe de pandas el csv `dat/alquiler-madrid-municipios.csv` en una variable que se llame `alquiler_municipios`\n",
24 | "* Examina las primeras y últimas filas\n",
25 | "* Extrae el número de filas y columnas"
26 | ]
27 | },
28 | {
29 | "cell_type": "code",
30 | "execution_count": null,
31 | "metadata": {},
32 | "outputs": [],
33 | "source": [
34 | "# Lectura en un dataframe del fichero CSV\n",
35 | "alquiler_municipios = pd.read_csv(\"dat/alquiler-madrid-distritos.csv\")\n",
36 | "\n",
37 | "# Examino las primeras filas\n",
38 | "alquiler_municipios.head()"
39 | ]
40 | },
41 | {
42 | "cell_type": "code",
43 | "execution_count": null,
44 | "metadata": {},
45 | "outputs": [],
46 | "source": [
47 | "# Examino las últimas filas\n",
48 | "alquiler_municipios.tail()"
49 | ]
50 | },
51 | {
52 | "cell_type": "code",
53 | "execution_count": null,
54 | "metadata": {},
55 | "outputs": [],
56 | "source": [
57 | "# Extraigo el número de filas y columnas: (filas, columnas)\n",
58 | "alquiler_municipios.shape"
59 | ]
60 | },
61 | {
62 | "cell_type": "markdown",
63 | "metadata": {},
64 | "source": [
65 | "#### Ejercicio\n",
66 | "\n",
67 | "* Muestra las primeras 5 filas usando `iloc`\n",
68 | "* Muestra las últimas 5 filas usando `iloc`"
69 | ]
70 | },
71 | {
72 | "cell_type": "code",
73 | "execution_count": null,
74 | "metadata": {},
75 | "outputs": [],
76 | "source": [
77 | "alquiler_municipios.iloc[0:5]"
78 | ]
79 | },
80 | {
81 | "cell_type": "code",
82 | "execution_count": null,
83 | "metadata": {},
84 | "outputs": [],
85 | "source": [
86 | "alquiler_municipios.iloc[-5:]"
87 | ]
88 | },
89 | {
90 | "cell_type": "markdown",
91 | "metadata": {},
92 | "source": [
93 | "#### Ejercicio\n",
94 | "\n",
95 | "Muestra sobre `alquiler_nuevo_indice` las filas para distrito `Retiro` y año 2012."
96 | ]
97 | },
98 | {
99 | "cell_type": "code",
100 | "execution_count": null,
101 | "metadata": {},
102 | "outputs": [],
103 | "source": [
104 | "alquiler_nuevo_indice = alquiler_municipios.set_index(['distrito', 'ano', 'quarter']).sort_index()"
105 | ]
106 | },
107 | {
108 | "cell_type": "code",
109 | "execution_count": null,
110 | "metadata": {},
111 | "outputs": [],
112 | "source": [
113 | "alquiler_nuevo_indice.loc[('Retiro', 2012)]"
114 | ]
115 | },
116 | {
117 | "cell_type": "markdown",
118 | "metadata": {},
119 | "source": [
120 | "#### Ejercicio\n",
121 | "\n",
122 | "Extrae los nombres de los distritos cuyo precio por metro cuadrado es superior a 15€ en el año y trimestre más reciente del que tenemos datos (míralo imprimiento las últimas filas de la tabla)."
123 | ]
124 | },
125 | {
126 | "cell_type": "code",
127 | "execution_count": null,
128 | "metadata": {},
129 | "outputs": [],
130 | "source": [
131 | "# 1. Imprime las últimas filas de la tabla\n",
132 | "alquiler_municipios.tail()"
133 | ]
134 | },
135 | {
136 | "cell_type": "code",
137 | "execution_count": null,
138 | "metadata": {},
139 | "outputs": [],
140 | "source": [
141 | "# 2. Haz el filtro. Una vez hecho, saca solo la columna distrito\n",
142 | "filtro_ultimos_datos = alquiler_municipios[(alquiler_municipios.precio >= 15)&(alquiler_municipios.quarter == 2)&(alquiler_municipios.ano == 2018)]"
143 | ]
144 | },
145 | {
146 | "cell_type": "code",
147 | "execution_count": null,
148 | "metadata": {},
149 | "outputs": [],
150 | "source": [
151 | "filtro_ultimos_datos"
152 | ]
153 | },
154 | {
155 | "cell_type": "code",
156 | "execution_count": null,
157 | "metadata": {},
158 | "outputs": [],
159 | "source": [
160 | "filtro_ultimos_datos['distrito']"
161 | ]
162 | },
163 | {
164 | "cell_type": "markdown",
165 | "metadata": {},
166 | "source": [
167 | "#### Ejercicio\n",
168 | "\n",
169 | "Extrae de mayor a menor por precio las filas de la tabla para Tetuán a partir del año 2017."
170 | ]
171 | },
172 | {
173 | "cell_type": "code",
174 | "execution_count": null,
175 | "metadata": {},
176 | "outputs": [],
177 | "source": [
178 | "#Generamos el filtro para recoger los datos de Tetúan a partir del 2017\n",
179 | "filtro_tetuan = alquiler_municipios[(alquiler_municipios.distrito == 'Tetuan')&(alquiler_municipios.ano >= 2017)]\n",
180 | "#Ordenadamos de mayor a menor por precio las filas filtradas\n",
181 | "filtro_tetuan.sort_values(['precio'], ascending=False)"
182 | ]
183 | },
184 | {
185 | "cell_type": "markdown",
186 | "metadata": {},
187 | "source": [
188 | "#### Ejercicio\n",
189 | "\n",
190 | "Crea una nueva columna `precio_120m` sobre `alquiler_2` que represente el precio de 120 metros cuadrados, pero utilizando `apply` y una función `lambda`."
191 | ]
192 | },
193 | {
194 | "cell_type": "code",
195 | "execution_count": null,
196 | "metadata": {},
197 | "outputs": [],
198 | "source": [
199 | "#Hacemos una copia de los datos\n",
200 | "alquiler_2 = alquiler_municipios.copy()\n",
201 | "#Generamos la nueva columna con el precio total de 120m cuadrados\n",
202 | "alquiler_2['precio_120m'] = alquiler_2.apply(lambda fila: fila.precio * 120, axis=1)\n",
203 | "#Comprobamos el resultado con las primeras filas\n",
204 | "alquiler_2.head()"
205 | ]
206 | },
207 | {
208 | "cell_type": "markdown",
209 | "metadata": {},
210 | "source": [
211 | "#### Ejercicio\n",
212 | "\n",
213 | "Extrae los cuantiles 0.1 y 0.9 del precio para el distrito `Tetuan`."
214 | ]
215 | },
216 | {
217 | "cell_type": "code",
218 | "execution_count": null,
219 | "metadata": {},
220 | "outputs": [],
221 | "source": [
222 | "#Generamos el filtro de los precios de Tetúan\n",
223 | "filtro_tetuan = alquiler_municipios[(alquiler_municipios.distrito == 'Tetuan')]\n",
224 | "#Extraemos los cuantiles 0.1 y 0.9\n",
225 | "filtro_tetuan[['precio']].quantile([.1, .9])"
226 | ]
227 | },
228 | {
229 | "cell_type": "markdown",
230 | "metadata": {},
231 | "source": [
232 | "#### Ejercicio\n",
233 | "\n",
234 | "Extrae el precio máximo histórico para cada distrito a partir del 2010"
235 | ]
236 | },
237 | {
238 | "cell_type": "code",
239 | "execution_count": null,
240 | "metadata": {},
241 | "outputs": [],
242 | "source": [
243 | "filtro_ano = alquiler_municipios[(alquiler_municipios.ano >= 2010)] \n",
244 | "filtro_ano.groupby('distrito').precio.max()"
245 | ]
246 | },
247 | {
248 | "cell_type": "markdown",
249 | "metadata": {},
250 | "source": [
251 | "#### Ejercicio\n",
252 | "\n",
253 | "* Carga en un DataFrame el CSV `dat/venta-madrid-distritos.csv`\n",
254 | "* Crúzalo con el que ya tenemos de alquiler. El objetivo es tener, para cada distrito, año y cuatrimestre, tanto el precio de alquiler como el de venta del metro cuadrado. Para saber cómo poner sufijos a las columnas que colisionan en el cruce, mira la documentación de `merge`.\n",
255 | "* Extrae los precios medios de venta y alquiler por distrito para todo el histórico\n",
256 | "* Extrae, para el año y cuatrimestre más reciente del que haya datos, el distrito donde es más rentable comprar una vivienda para destinarla a alquiler. Es decir, con el ratio precio alquiler / precio venta más alto."
257 | ]
258 | },
259 | {
260 | "cell_type": "code",
261 | "execution_count": null,
262 | "metadata": {},
263 | "outputs": [],
264 | "source": [
265 | "#Cargamos el data frame \n",
266 | "venta_madrid_distritos = pd.read_csv(\"dat/venta-madrid-distritos.csv\")\n",
267 | "#Mergeamos los datos\n",
268 | "datos_totales = pd.merge(alquiler_municipios, venta_madrid_distritos, how='inner', on=['distrito', 'ano', 'quarter'])\n",
269 | "#Extraemos los precios medios de venta y alquiler\n",
270 | "datos_totales.groupby('distrito').agg({'precio_x': ['mean'], 'precio_y': ['mean']}).head()"
271 | ]
272 | },
273 | {
274 | "cell_type": "code",
275 | "execution_count": null,
276 | "metadata": {},
277 | "outputs": [],
278 | "source": [
279 | "#Extraemos el ratio precio alquiler/precio venta más alto\n",
280 | "#Generamos la columna con todos los ratios\n",
281 | "datos_totales[\"ratio precio alq/vent\"] = datos_totales[\"precio_x\"]/ datos_totales[\"precio_y\"]\n",
282 | "#Buscamos el año y cuatrimestre más reciente\n",
283 | "datos_totales.tail().iloc[0:5]\n",
284 | "#Hacemos un filtro con los datos del año y cuatrimestre más reciente\n",
285 | "datos_filtrados_totales = datos_totales[(datos_totales.ano == 2018)&(datos_totales.quarter == 2)] \n",
286 | "#Extraemos el distrito más rentable\n",
287 | "datos_filtrados_totales.loc[datos_filtrados_totales['ratio precio alq/vent'].idxmax()]"
288 | ]
289 | },
290 | {
291 | "cell_type": "code",
292 | "execution_count": null,
293 | "metadata": {},
294 | "outputs": [],
295 | "source": []
296 | }
297 | ],
298 | "metadata": {
299 | "kernelspec": {
300 | "display_name": "Python 3",
301 | "language": "python",
302 | "name": "python3"
303 | },
304 | "language_info": {
305 | "codemirror_mode": {
306 | "name": "ipython",
307 | "version": 3
308 | },
309 | "file_extension": ".py",
310 | "mimetype": "text/x-python",
311 | "name": "python",
312 | "nbconvert_exporter": "python",
313 | "pygments_lexer": "ipython3",
314 | "version": "3.7.2"
315 | }
316 | },
317 | "nbformat": 4,
318 | "nbformat_minor": 4
319 | }
320 |
--------------------------------------------------------------------------------
/notebooks/soluciones/05_web_scraping.ipynb:
--------------------------------------------------------------------------------
1 | {
2 | "cells": [
3 | {
4 | "cell_type": "code",
5 | "execution_count": null,
6 | "metadata": {},
7 | "outputs": [],
8 | "source": [
9 | "# Ponemos como ruta principal la carpeta padre de \"soluciones\"\n",
10 | "# para que las rutas relativas queden igual que en la carpeta de notebooks\n",
11 | "import paths\n",
12 | "\n",
13 | "# Otras dependencias\n",
14 | "import requests\n",
15 | "from bs4 import BeautifulSoup\n",
16 | "import re\n",
17 | "import pandas as pd"
18 | ]
19 | },
20 | {
21 | "cell_type": "markdown",
22 | "metadata": {},
23 | "source": [
24 | "#### SOS: ¡me han baneado!\n",
25 | "\n",
26 | "Opción de usar el html offline que hay en `dat` para seguir con el ejercicio. Descomenta el siguiente código y sigue adelante"
27 | ]
28 | },
29 | {
30 | "cell_type": "code",
31 | "execution_count": null,
32 | "metadata": {},
33 | "outputs": [],
34 | "source": [
35 | "# Descomenta esto si te han baneado\n",
36 | "# with open('dat/milanuncios.html') as f:\n",
37 | "# soup = BeautifulSoup(f, 'html.parser')"
38 | ]
39 | },
40 | {
41 | "cell_type": "markdown",
42 | "metadata": {},
43 | "source": [
44 | "### Ejercicio\n",
45 | "\n",
46 | "Crea un dataframe de pandas en el que cada fila sea un anuncio y tenga como columnas información que consideres relevante: precio, kilómetros, año, cilindrada, texto del anuncio, ..."
47 | ]
48 | },
49 | {
50 | "cell_type": "code",
51 | "execution_count": null,
52 | "metadata": {},
53 | "outputs": [],
54 | "source": [
55 | "headers = {\n",
56 | " 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36'\n",
57 | "}\n",
58 | "\n",
59 | "page = requests.get('https://www.milanuncios.com/motos-de-carretera/duke-390.htm', headers=headers)\n",
60 | "soup = BeautifulSoup(page.content, 'html.parser')\n",
61 | "\n",
62 | "columns = ['producto','tipo_anuncio','precio','texto','cc','ano','kms']\n",
63 | "\n",
64 | "df = pd.DataFrame(columns=columns)\n",
65 | "\n",
66 | "for link in soup.find_all('div', class_='aditem ParticularCardTestABClass'):\n",
67 | " producto = link.find('a', class_='aditem-detail-title').get_text()\n",
68 | " tipo_anuncio = link.find('div', class_='x3').get_text()\n",
69 | " if link.find('div', class_='aditem-price') is None:\n",
70 | " precio = 0\n",
71 | " else:\n",
72 | " precio = link.find('div', class_='aditem-price').get_text().replace('€','')\n",
73 | " texto = link.find('div', class_='tx').get_text()\n",
74 | " if link.find('div', class_='cc tag-mobile') is None:\n",
75 | " cc = 0\n",
76 | " else:\n",
77 | " cc = link.find('div', class_='cc tag-mobile').get_text().replace('cc','')\n",
78 | " if link.find('div', class_='ano tag-mobile') is None:\n",
79 | " ano = 0\n",
80 | " else:\n",
81 | " ano = link.find('div', class_='ano tag-mobile').get_text().replace('año','') #¿Alguna solución mejor que un if para esto?\n",
82 | " if link.find('div', class_='kms tag-mobile') is None:\n",
83 | " kms = 0\n",
84 | " else:\n",
85 | " kms = link.find('div', class_='kms tag-mobile').get_text().replace('kms','')\n",
86 | "\n",
87 | " nueva_fila = {'producto':producto,'tipo_anuncio':tipo_anuncio,'precio':precio,'texto':texto,'cc':cc,'ano':ano,'kms':kms}\n",
88 | " df = df.append(nueva_fila, ignore_index=True)\n",
89 | " \n",
90 | "df"
91 | ]
92 | },
93 | {
94 | "cell_type": "markdown",
95 | "metadata": {},
96 | "source": [
97 | "### Ejercicio\n",
98 | "\n",
99 | "Modifica el código anterior para que, además de bajarse la página actual, navegue por el resto de páginas e incorpore también esos anuncios a tu dataframe."
100 | ]
101 | },
102 | {
103 | "cell_type": "code",
104 | "execution_count": null,
105 | "metadata": {},
106 | "outputs": [],
107 | "source": [
108 | "page = requests.get('https://www.milanuncios.com/motos-de-carretera/duke-390.htm', headers=headers)\n",
109 | "soup = BeautifulSoup(page.content, 'html.parser')\n",
110 | "\n",
111 | "columns = ['producto','tipo_anuncio','precio','texto','cc','ano','kms']\n",
112 | "df = pd.DataFrame(columns=columns)\n",
113 | "nueva_pag = 1\n",
114 | "while len(soup.find_all('div', class_='aditem ParticularCardTestABClass')) > 0:\n",
115 | " for link in soup.find_all('div', class_='aditem ParticularCardTestABClass'):\n",
116 | " producto = link.find('a', class_='aditem-detail-title').get_text()\n",
117 | " tipo_anuncio = link.find('div', class_='x3').get_text()\n",
118 | " if link.find('div', class_='aditem-price') is None:\n",
119 | " precio = 0\n",
120 | " else:\n",
121 | " precio = link.find('div', class_='aditem-price').get_text().replace('€','')\n",
122 | " texto = link.find('div', class_='tx').get_text()\n",
123 | " if link.find('div', class_='cc tag-mobile') is None:\n",
124 | " cc = 0\n",
125 | " else:\n",
126 | " cc = link.find('div', class_='cc tag-mobile').get_text().replace('cc','')\n",
127 | " if link.find('div', class_='ano tag-mobile') is None:\n",
128 | " ano = 0\n",
129 | " else:\n",
130 | " ano = link.find('div', class_='ano tag-mobile').get_text().replace('año','') #¿Alguna solución mejor que un if para esto?\n",
131 | " if link.find('div', class_='kms tag-mobile') is None:\n",
132 | " kms = 0\n",
133 | " else:\n",
134 | " kms = link.find('div', class_='kms tag-mobile').get_text().replace('kms','')\n",
135 | "\n",
136 | " nueva_fila = {'producto':producto,'tipo_anuncio':tipo_anuncio,'precio':precio,'texto':texto,'cc':cc,'ano':ano,'kms':kms}\n",
137 | " df = df.append(nueva_fila, ignore_index=True)\n",
138 | "\n",
139 | " nueva_pag += 1\n",
140 | " page = requests.get('https://www.milanuncios.com/motos-de-carretera/duke-390.htm?pagina='+str(nueva_pag), headers=headers)\n",
141 | " soup = BeautifulSoup(page.content, 'html.parser')\n",
142 | "\n",
143 | "df"
144 | ]
145 | },
146 | {
147 | "cell_type": "markdown",
148 | "metadata": {},
149 | "source": [
150 | "Primero, hacemos una petición para descargar la página de interés (que contiene las cotizaciones de las acciones del IBEX 35 en tiempo _casi_ real)."
151 | ]
152 | },
153 | {
154 | "cell_type": "code",
155 | "execution_count": null,
156 | "metadata": {},
157 | "outputs": [],
158 | "source": [
159 | "# Pasos previos al ejercicio que se ejecutan durante el notebook de explicación\n",
160 | "base_url = \"https://www.eleconomista.es/indice/IBEX-35\"\n",
161 | "res = requests.get(base_url)\n",
162 | "contenido = res.content\n",
163 | "soup = BeautifulSoup(contenido, \"html.parser\")\n",
164 | "tablas = soup.find_all('table')\n",
165 | "lineas = [x for tabla in tablas for x in tabla.find_all('tr')]\n",
166 | "datos = [[x.text for x in linea.find_all('td')] for linea in lineas]\n",
167 | "datos = [x for x in datos if len(x) > 0]\n",
168 | "datos = pd.DataFrame(datos)\n",
169 | "datos"
170 | ]
171 | },
172 | {
173 | "cell_type": "markdown",
174 | "metadata": {},
175 | "source": [
176 | "#### Ejercicio\n",
177 | "\n",
178 | "Usa los elementos `th` de la primera fila de las tablas para extraer nombres para las columnas de la tabla. "
179 | ]
180 | },
181 | {
182 | "cell_type": "code",
183 | "execution_count": null,
184 | "metadata": {},
185 | "outputs": [],
186 | "source": [
187 | "cabecera = [[x.text for x in linea.find_all('th')] for linea in lineas]\n",
188 | "cabecera = [x for x in cabecera if len(x) > 0]\n",
189 | "cabecera = cabecera[0]\n",
190 | "cabecera"
191 | ]
192 | },
193 | {
194 | "cell_type": "markdown",
195 | "metadata": {},
196 | "source": [
197 | "#### Ejercicio\n",
198 | "\n",
199 | "Elimina las columnas irrelevantes y cambia los nombres de las columnas por otros breves y sin caracteres extraños o que dificulten el posproceso."
200 | ]
201 | },
202 | {
203 | "cell_type": "code",
204 | "execution_count": null,
205 | "metadata": {},
206 | "outputs": [],
207 | "source": [
208 | "cabecera = [[x.text for x in linea.find_all('th')] for linea in lineas]\n",
209 | "cabecera = [x for x in cabecera if len(x) > 0]\n",
210 | "cabecera = cabecera[0]\n",
211 | "cabecera.pop(2) #Elimino la columna que tiene el nombre en blanco\n",
212 | "\n",
213 | "cabecera = [re.sub('[()/. ]','',x) for x in cabecera]\n",
214 | "cabecera = [re.sub('ó','o',x) for x in cabecera]\n",
215 | "cabecera = [re.sub('%','pct',x) for x in cabecera]\n",
216 | "cabecera = [re.sub('€','Euros',x) for x in cabecera]\n",
217 | "cabecera[8] = 'Fecha'\n",
218 | "\n",
219 | "datos = datos.drop([2], axis = 1) #Elimino una columna en blanco\n",
220 | "\n",
221 | "datos.columns = cabecera\n",
222 | "\n",
223 | "datos"
224 | ]
225 | },
226 | {
227 | "cell_type": "markdown",
228 | "metadata": {},
229 | "source": [
230 | "#### Ejercicio\n",
231 | "\n",
232 | "Cambia el formato de las columnas adecuadamente: convierte a numéricas, etc., las columnas que lo requieran."
233 | ]
234 | },
235 | {
236 | "cell_type": "code",
237 | "execution_count": null,
238 | "metadata": {},
239 | "outputs": [],
240 | "source": [
241 | "datos['VolumenEuros'] = datos['VolumenEuros'].replace(regex=r'\\.',value='')\n",
242 | "\n",
243 | "datos = datos.replace(regex=r'%',value='')\n",
244 | "datos = datos.replace(regex=r',',value='.')\n",
245 | "datos[['Precio','Varpct','VarEuros','VolumenEuros','Capitalizacion1','PER','RentDiv']] = datos[['Precio','Varpct','VarEuros','VolumenEuros','Capitalizacion1','PER','RentDiv']].astype(float)\n",
246 | "\n",
247 | "datos['Fecha'] = datos['Fecha'] + '/2020'\n",
248 | "\n",
249 | "datos['Fecha'] = pd.to_datetime(datos['Fecha'], format='%d/%m/%Y')\n",
250 | "\n",
251 | "datos.dtypes"
252 | ]
253 | }
254 | ],
255 | "metadata": {
256 | "kernelspec": {
257 | "display_name": "libropython",
258 | "language": "python",
259 | "name": "libropython"
260 | },
261 | "language_info": {
262 | "codemirror_mode": {
263 | "name": "ipython",
264 | "version": 3
265 | },
266 | "file_extension": ".py",
267 | "mimetype": "text/x-python",
268 | "name": "python",
269 | "nbconvert_exporter": "python",
270 | "pygments_lexer": "ipython3",
271 | "version": "3.7.6"
272 | }
273 | },
274 | "nbformat": 4,
275 | "nbformat_minor": 2
276 | }
277 |
--------------------------------------------------------------------------------
/notebooks/soluciones/11_pivotacion_tablas.ipynb:
--------------------------------------------------------------------------------
1 | {
2 | "cells": [
3 | {
4 | "cell_type": "code",
5 | "execution_count": null,
6 | "metadata": {},
7 | "outputs": [],
8 | "source": [
9 | "# Ponemos como ruta principal la carpeta padre de \"soluciones\"\n",
10 | "# para que las rutas relativas queden igual que en la carpeta de notebooks\n",
11 | "import paths\n",
12 | "\n",
13 | "# Otras dependencias\n",
14 | "import pandas as pd\n",
15 | "import numpy as np"
16 | ]
17 | },
18 | {
19 | "cell_type": "markdown",
20 | "metadata": {},
21 | "source": [
22 | "#### Ejercicio\n",
23 | "\n",
24 | "Investiga y cambia los nombres de las columnas resultantes (variable y value) por otros que consideres adecuados, durante el proceso de `melt`."
25 | ]
26 | },
27 | {
28 | "cell_type": "code",
29 | "execution_count": null,
30 | "metadata": {},
31 | "outputs": [],
32 | "source": [
33 | "air = pd.read_csv(\"dat/airquality.csv\")\n",
34 | "air.head()"
35 | ]
36 | },
37 | {
38 | "cell_type": "code",
39 | "execution_count": null,
40 | "metadata": {},
41 | "outputs": [],
42 | "source": [
43 | "air_long = air.melt(id_vars=['month', 'day'], var_name = \"Air quality variable\", value_name = \"Measure\")\n",
44 | "air_long.head()"
45 | ]
46 | },
47 | {
48 | "cell_type": "markdown",
49 | "metadata": {},
50 | "source": [
51 | "#### Ejercicio\n",
52 | "\n",
53 | "La función [`pivot_table`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.pivot_table.html) permite agregar si hay más de un valor por cada fila (es decir, parejas de índice + variable duplicadas).\n",
54 | "\n",
55 | "Aprovecha esta utilidad para, en el paso de `air_long` a ancho, calcular la mediana por variable por mes."
56 | ]
57 | },
58 | {
59 | "cell_type": "code",
60 | "execution_count": null,
61 | "metadata": {},
62 | "outputs": [],
63 | "source": [
64 | "air_wide = air_long.pivot_table(index=['month'], columns='Air quality variable', values='Measure',aggfunc=np.median)\n",
65 | "air_wide.head()"
66 | ]
67 | },
68 | {
69 | "cell_type": "markdown",
70 | "metadata": {},
71 | "source": [
72 | "#### Ejercicio\n",
73 | "\n",
74 | "Carga en un dataframe el fichero `dat/contaminacion_mad_201812.csv`, y mira qué aspecto tiene. Nuestro objetivo es dejarlo en formato largo, y quedarnos únicamente con los días con una medida válida. Para hacerlo:\n",
75 | "\n",
76 | "* A partir de ese dataframe, crea dos nuevos:\n",
77 | "\n",
78 | " * Uno con el índice + las columnas con los valores (D01, ..., D31)\n",
79 | " * Otro con el índice + las columnas con la validez (V01, ..., V31)\n",
80 | "\n",
81 | "* Pasa ambos a formato largo. El día debe quedar como numérico en ambos.\n",
82 | "* Cruza los resultados, para tener en el mismo dataframe valor y validez\n",
83 | "* Limpia la fecha, para tenerla como `date`"
84 | ]
85 | },
86 | {
87 | "cell_type": "markdown",
88 | "metadata": {},
89 | "source": [
90 | "Cargamos el dataframe"
91 | ]
92 | },
93 | {
94 | "cell_type": "code",
95 | "execution_count": null,
96 | "metadata": {},
97 | "outputs": [],
98 | "source": [
99 | "df = pd.read_csv(\"dat/contaminacion_mad_201812.csv\",sep = \";\") "
100 | ]
101 | },
102 | {
103 | "cell_type": "code",
104 | "execution_count": null,
105 | "metadata": {},
106 | "outputs": [],
107 | "source": [
108 | "df.head()"
109 | ]
110 | },
111 | {
112 | "cell_type": "markdown",
113 | "metadata": {},
114 | "source": [
115 | "Creamos los dos nuevos dataframes"
116 | ]
117 | },
118 | {
119 | "cell_type": "code",
120 | "execution_count": null,
121 | "metadata": {},
122 | "outputs": [],
123 | "source": [
124 | "column_index = ['ANO','MES']\n",
125 | "column_index += ['D{:02}'.format(i) for i in range(1, 32)]"
126 | ]
127 | },
128 | {
129 | "cell_type": "code",
130 | "execution_count": null,
131 | "metadata": {},
132 | "outputs": [],
133 | "source": [
134 | "df1 = df[column_index]"
135 | ]
136 | },
137 | {
138 | "cell_type": "code",
139 | "execution_count": null,
140 | "metadata": {},
141 | "outputs": [],
142 | "source": [
143 | "df1.head()"
144 | ]
145 | },
146 | {
147 | "cell_type": "code",
148 | "execution_count": null,
149 | "metadata": {},
150 | "outputs": [],
151 | "source": [
152 | "column_index = ['ANO','MES']\n",
153 | "column_index += ['V{:02}'.format(i) for i in range(1, 32)]"
154 | ]
155 | },
156 | {
157 | "cell_type": "code",
158 | "execution_count": null,
159 | "metadata": {},
160 | "outputs": [],
161 | "source": [
162 | "df2 = df[column_index]"
163 | ]
164 | },
165 | {
166 | "cell_type": "code",
167 | "execution_count": null,
168 | "metadata": {},
169 | "outputs": [],
170 | "source": [
171 | "df2.head()"
172 | ]
173 | },
174 | {
175 | "cell_type": "markdown",
176 | "metadata": {},
177 | "source": [
178 | "Pasamos a formato largo"
179 | ]
180 | },
181 | {
182 | "cell_type": "code",
183 | "execution_count": null,
184 | "metadata": {},
185 | "outputs": [],
186 | "source": [
187 | "df1_long = df1.melt(id_vars= ['ANO','MES'],var_name='Day', value_name='value')\n",
188 | "df1_long['Day'] = df1_long.Day.str.replace(\"D\", \"\").astype(int)\n",
189 | "df1_long.head()"
190 | ]
191 | },
192 | {
193 | "cell_type": "code",
194 | "execution_count": null,
195 | "metadata": {},
196 | "outputs": [],
197 | "source": [
198 | "df2_long = df2.melt(id_vars= ['ANO','MES'],var_name='Day', value_name='Validity')\n",
199 | "df2_long['Day'] = df2_long.Day.str.replace(\"V\", \"\").astype(int)\n",
200 | "df2_long.head()"
201 | ]
202 | },
203 | {
204 | "cell_type": "markdown",
205 | "metadata": {},
206 | "source": [
207 | "Cruzamos los resultados"
208 | ]
209 | },
210 | {
211 | "cell_type": "code",
212 | "execution_count": null,
213 | "metadata": {},
214 | "outputs": [],
215 | "source": [
216 | "new_df = df1_long.copy()\n",
217 | "new_df['Validity']=df2_long['Validity']\n",
218 | "new_df.head()"
219 | ]
220 | },
221 | {
222 | "cell_type": "markdown",
223 | "metadata": {},
224 | "source": [
225 | "Limpiamos la fecha para tenerla como date. Sólo las entradas válidas se deberán traducir a formato date."
226 | ]
227 | },
228 | {
229 | "cell_type": "code",
230 | "execution_count": null,
231 | "metadata": {},
232 | "outputs": [],
233 | "source": [
234 | "df_out = new_df[new_df['Validity']=='V']\n",
235 | "df_out.head()"
236 | ]
237 | },
238 | {
239 | "cell_type": "code",
240 | "execution_count": null,
241 | "metadata": {},
242 | "outputs": [],
243 | "source": [
244 | "df_date = df_out[[\"ANO\", \"MES\", \"Day\"]].copy()\n",
245 | "df_date.columns = [\"year\", \"month\", \"day\"]\n",
246 | "df_out['Date'] = pd.to_datetime(df_date)\n",
247 | "df_out = df_out[['Date', 'value','Validity']]"
248 | ]
249 | },
250 | {
251 | "cell_type": "code",
252 | "execution_count": null,
253 | "metadata": {},
254 | "outputs": [],
255 | "source": [
256 | " df_out.head()"
257 | ]
258 | }
259 | ],
260 | "metadata": {
261 | "kernelspec": {
262 | "display_name": "Python 3",
263 | "language": "python",
264 | "name": "python3"
265 | },
266 | "language_info": {
267 | "codemirror_mode": {
268 | "name": "ipython",
269 | "version": 3
270 | },
271 | "file_extension": ".py",
272 | "mimetype": "text/x-python",
273 | "name": "python",
274 | "nbconvert_exporter": "python",
275 | "pygments_lexer": "ipython3",
276 | "version": "3.7.6"
277 | }
278 | },
279 | "nbformat": 4,
280 | "nbformat_minor": 4
281 | }
282 |
--------------------------------------------------------------------------------
/notebooks/soluciones/paths.py:
--------------------------------------------------------------------------------
1 | import os
2 |
3 | os.chdir("..")
4 |
--------------------------------------------------------------------------------