Trabajo de Yuo

59
Dibujo significa tanto el arte que enseña a dibujar, así como delineación , figura o imagen ejecutada en claro y oscuro; toma nombre de acuerdo al material con el que se hace. 1 El dibujo es una forma de expresión gráfica, plasma imágenes sobre un espacio plano. Debido a lo anterior, es considerado parte de la bella arte conocida como pintura . Es una de las modalidades de las artes visuales . Se considera al dibujo como el lenguaje gráfico universal, ha sido utilizado por la humanidad para transmitir ideas, proyectos y, en un sentido más amplio, su cultura Tipos de Dibujo De acuerdo con lo que se desea representar o hacia donde se debe enfocar, el dibujo se clasifica en: Dibujo Artístico: El "Dibujo Artistico" se define como el tipo de dibujo que sirve para expresar ideas filosóficas o estéticas así como sentimientos y emociones. El artista cuando dibuja cosas, las dibuja tal como las ve emocionalmente de acuerdo con su propia y peculiar manera de percibir la realidad de su entorno. Este tipo de dibujo requiere aptitudes especiales como las personales y naturales. Dibujo Técnico: Se dice que el "Dibujo Técnico" es el lenguaje gráfico universal técnico normalizado por medio del cual se manifiesta una expresión precisa y exacta y, su objetivo principal es la exactitud precisamente. Las aptitudes para esta clase de dibujo

Transcript of Trabajo de Yuo

Page 1: Trabajo de Yuo

Dibujo significa tanto el arte que enseña a dibujar, así como delineación, figura o imagen ejecutada

en claro y oscuro; toma nombre de acuerdo al material con el que se hace.1 El dibujo es una forma de expresión gráfica, plasma imágenes sobre un espacio plano. Debido a lo anterior, es considerado parte de la bella arte conocida como pintura. Es una de las modalidades de las artes visuales. Se considera al dibujo como el lenguaje gráfico universal, ha sido utilizado por la humanidad para transmitir ideas, proyectos y, en un sentido más amplio, su cultura

Tipos de Dibujo

De  acuerdo con lo que se desea representar o hacia donde se debe enfocar, el dibujo se clasifica en:

Dibujo Artístico: El "Dibujo Artistico" se define como el tipo de dibujo que sirve para expresar ideas filosóficas o estéticas así como sentimientos y emociones. El artista cuando dibuja cosas, las dibuja tal como las ve emocionalmente de acuerdo con su propia y peculiar manera de percibir la realidad de su entorno. Este tipo de dibujo requiere aptitudes especiales como las personales y naturales.

Dibujo Técnico: Se dice que el "Dibujo Técnico" es el lenguaje gráfico universal técnico normalizado por medio del cual se manifiesta una expresión precisa y exacta y, su objetivo principal es la exactitud precisamente. Las aptitudes para esta clase de dibujo por lo general son adquiridas, es decir, que se llega a él a través de un proceso de conocimiento y aprendizaje. Que se subdivide en "Dibujo Técnico Especializado", según la necesidad o aplicación los más utilizadas o difundidos en el entorno técnico y profesional. Cada uno se caracteriza porque utiliza una simbología propia y específica generalmente normalizada legalmente.

Dibujo Geométrico: Es aquel que se representa por medio de gráficas planas.

Page 2: Trabajo de Yuo

Dibujo geométrico constituye un verdadero y novedoso sistema de enseñanza estructurado para garantizar, tanto al alumno de los primeros años de las Escuelas Técnicas como a los de las Facultades de Arquitectura e Ingeniería -bachilleres o peritos mercantiles- un rápido manejo y posterior dominio de la mano sobre el plano.  Dibujo Mecánico El dibujo mecánico se emplea en la representación de piezas o partes de máquinas, maquinarias, vehículos como grúas y motos, aviones, helicópteros y máquinas industriales. Los planos que representan un mecanismo simple o una máquina formada por un conjunto de piezas, son llamados planos de conjunto; y los que representa un sólo elemento, plano de pieza. Los que representan un conjunto de piezas con las indicaciones gráficas para su colocación, y armar un todo, son llamados planos de montaje.

Dibujo Arquitectónico Al introducirnos en el dibujo arquitectónico nos ubicamos en la concepción visual que altera el paisaje urbano, los espacios físicos de una obra o infraestructura civil y que es elaborada a escala de reducción para luego ser representada a una escala real o natural, tiene como finalidad ayudar al hombre en su contexto social, cultural e interdisciplinario con su ambiente, forma parte de lo que en fenomenología explica el porque, según las experiencias humanas, se logra una mejora en la calidad de vida. La arquitectura ayuda a moldear la forma de vida de una sociedad y del individuo colectivamente.El dibujo arquitectónico, abarca una gama de representaciones gráficas con las cuales realizamos los planos para la elaboración de edificios, casas, quintas, autopistas etc...Se dibuja el proyecto con instrumentos precisos, con sus respectivos detalles, ajuste y correcciones.

Historia del dibujo[editar · editar código]

El dibujo sirve como una herramienta para la representación de objetos reales o ideas que, a

veces, no es posible expresar fielmente con palabras. Los primeros dibujos conocidos se remontan

a la prehistoria; las pinturas rupestres de la Cueva de Altamira son unos de los ejemplos más

antiguos, donde el ser humano plasmó en los techos y paredes de las cavernas lo que consideraba

importante transmitir o expresar (usualmente actividades relacionadas con su forma de vida y su

entorno).

Page 3: Trabajo de Yuo

Dibujos y pinturas de la cueva de Altamira.

De las primeras civilizaciones perduran escasos ejemplares de dibujos, normalmente, por la

fragilidad del material en el que fueron ejecutados (se han hallado en ostraca y pinturas murales

inacabadas), o porque eran un medio para elaborar pinturas posteriormente, siendo recubiertos

con capas de color. Las culturas de la Antigua China, Mesopotamia, el valle del Indo, o el Antiguo

Egipto nos han dejado muestras claras de ello, ideando los primeros cánones de proporciones,

como sucedió también en la Antigua Grecia y Roma.

En la Edad Media se utilizó profusamente el dibujo, generalmente coloreado, para representar

sobre pergaminos temas religiosos a modo de explicación o alegoría de las historias escritas,

privando así lo simbólico sobre lo realista, incluso las proporciones y cánones de la época. La

cultura islámica también contribuyó con preciosos dibujos que solían acompañar textos

de anatomía, astronomía o astrología.

Es en el Renacimiento cuando el dibujo eclosiona, logrando alcanzar sublimes cotas. Por primera

vez se estudia el método de reflejar la realidad con la mayor fidelidad posible, con arreglo a normas

matemáticas y geométricas impecables: con Filippo Brunelleschi surge la perspectiva cónica. El

dibujo, de la mano de los grandes artistas renacentistas cobra autonomía, adquiriendo valor propio

en autorretratos, planos arquitectónicos y variados temas realistas –como los de Leonardo da

Vinci–, además de seguir sirviendo como estudio previo imprescindible de otras artes, como

la pintura,escultura, o arquitectura.

Dibujo técnico

Page 4: Trabajo de Yuo

Dibujo técnico del símbolo monetario del euro.

El dibujo técnico es un sistema de representación gráfica de diversos tipos de objetos, con el propósito

de proporcionar información suficiente para facilitar su análisis, ayudar a elaborar su diseño y posibilitar

la futura construcción y mantenimiento de éste. Suele realizarse con el auxilio de medios informatizados

o, directamente, sobre el papel u otros soportes planos.

Es la representación gráfica de un objeto o una idea práctica. Esta representación se guía por normas

fijas y preestablecidas para poder describir de forma exacta y clara, dimensiones, formas, características

y la construcción de lo que se quiere reproducir.

Los objetos, piezas, máquinas, edificios, planes urbanos, entre otros , se suelen representar

en planta (vista superior, vista de techo, planta de piso, cubierta, entre otros ), alzado (vista frontal o

anterior y lateral; al menos una) y secciones (o cortes ideales) indicando claramente

susdimensiones mediante acotaciones; son necesarias un mínimo de dos proyecciones (vistas del

objeto) para aportar información útil del objeto.

Formas de expresión[editar · editar código]

El dibujo técnico engloba trabajos como bosquejos y/o croquis, esquemas, diagramas, planos

eléctricos y electrónicos, representaciones de todo tipo de elementos

mecánicos, planos de arquitectura, urbanismo, etc., resueltos mediante el auxilio

deconceptos geométricos, donde son aplicadas la matemática, la geometría euclidiana, diversos

tipos de perspectivas, escalas, etc...

Medios y soportes[editar · editar código]

El dibujo puede ser plasmado en una gran variedad de materiales, como son diversos tipos

de papel, lienzo o acetato (mylar); también puede proyectarse en pantalla, mostrarse en monitor,

recrear animaciones gráficas de sus volúmenes, etc.

Útiles e instrumentos[editar · editar código]

Para realizar el dibujo técnico se emplean diversos útiles o instrumentos: reglas de varios

tipos, compases, lápices, escuadras, cartabón, tiralíneas, rotuladores, etc. Actualmente, se utiliza

con preferencia la informática, en su vertiente de diseño asistido mediante programas (CAD, 3D,

vectorial, etcétera) con resultados óptimos y en continuo proceso de mejora.

Tipos de dibujo técnico[editar · editar código]

Con el desarrollo industrial y los avances tecnológicos el dibujo ha aumentado su campo de acción.

Los principales son:

Page 5: Trabajo de Yuo

Dibujo arquitectónico[editar · editar código]

Vistas estándar usadas en el dibujo arquitectónico.

El dibujo arquitectónico abarca una gama de representaciones gráficas con las cuales se realizan

los planos para la construcción de edificios, casas, quintas, autopistas, iglesias, fábricas y puentes

entre otros. Se dibuja el proyecto con instrumentos precisos, con sus respectivos detalles, ajuste y

correcciones, donde aparecen los planos de planta, fachadas, secciones, perspectivas,

fundaciones, columnas, detalles y otros.

Dibujo mecánico[editar · editar código]

El dibujo mecánico se emplea en la elaboración de planos para la representación de piezas o

partes de máquinas, maquinarias, vehículos como grúas, motos, aviones, helicópteros y máquinas

industriales. Los planos que representan un mecanismo simple o una máquina formada por un

conjunto de piezas, son llamados planos de conjunto; y los que representa un sólo elemento, plano

de pieza. Los que representan un conjunto de piezas con las indicaciones gráficas, para su

colocación, y armar un todo, son llamados planos de montaje.

Dibujo eléctrico[editar · editar código]

Este tipo de dibujo se refiere a la representación gráfica de instalaciones eléctricas en una

industria, oficina o vivienda que requiera de electricidad. Mediante la simbología correspondiente

se representan acometidas, caja de contador, tablero principal, línea de circuitos, interruptores,

toma corrientes, salidas de lámparas entre otros.

Dibujo geológico[editar · editar código]

El dibujo geológico se emplea en geografía y en geología, en él se representan las diversas capas

de la tierra empleando una simbología y da a conocer los minerales contenidos en cada capa. Se

usa mucho en minería y en exploraciones de yacimientos petrolíferos.

Page 6: Trabajo de Yuo

Dibujo topográfico[editar · editar código]

Es el dibujo técnico que tiene por objeto representar en un plano las características de un terreno,

tales como: el relieve, la altura a diferentes niveles, etc. El dibujo topográfico nos representa

gráficamente las características de una determinada extensión de terreno, mediante signos

convencionalmente establecidos. Nos muestra los accidentes naturales y artificiales, cotas o

medidas, curvas horizontales o curvas de nivel.

Dibujo urbanístico[editar · editar código]

Este tipo de dibujo se emplea en la organización de ciudades: en la ubicación de centros urbanos,

zonas industriales, bulevares, calles, avenidas, jardines, autopistas, zonas recreativas entre otros.

Se dibujan anteproyectos, proyectos, planos de conjunto y de pormenor. Otra definición sería que

el urbanismo es el arte de proyectar y construir las ciudades de forma que sean satisfechas todas

las premisas que garantizan la vida digna de los hombres y la eficacia de la gran empresa que

constituye la ciudad. También se define como la ciencia que se ocupa de la ordenación y desarrollo

de la ciudad, persiguiendo, con la ayuda de todos los medios técnicos, determinar la mejor

situación de las vías, edificios e instalaciones públicas, y de las viviendas privadas, de modo que la

población se asiente de forma cómoda, sana y agradable.

Dibujo técnico de las instalaciones sanitarias[editar · editar código]

Tiene por finalidad representar el posicionamiento de cada una de las piezas sanitarias: ducha,

lavamanos, retrete, etc. Incluyendo la ubicación de las tuberías internas o externas. En los planos

de instalaciones sanitarias se utilizan diferentes colores normalizados para indicar si se trata de

cañerías (tuberías), artefactos o elementos de cloaca, pluvial, ventilación, agua caliente o fría.

También en los cortes se puede observar las pendientes de las cañerías, profundidades, alturas o

distancias a planos de referencias.

Dibujo técnico electrónico[editar · editar código]

Se relaciona con la representación de esquemas y diagramas de circuitos electrónicos de

circulación de corriente de poca intensidad tales como radios, televisores, computadoras, etc.

Dibujo técnico de construcciones metálicas[editar · editar código]

Rama del dibujo que se utiliza en el diseño de puentes, galpones, astilleros, herrería en general.

Dibujo técnico cartográfico[editar · editar código]

Es el empleado en cartografía, topografía, y otras representaciones de entornos de gran extensión.

TIPOS DE DIBUJO TÉCNICO

Con el desarrollo industrial y los avances tecnológicos el dibujo ha aumentado su campo de acción. Los

principales son:

Page 7: Trabajo de Yuo

Dibujo arquitectónico: El dibujo arquitectónico abarca una gama de representaciones gráficas con las cuales

realizamos los planos para la construcción de edificios, casas, quintas, autopistas, iglesias, fábricas y puentes

entre otros. Se dibuja el proyecto con instrumentos precisos, con sus respectivos detalles, ajuste y

correcciones, donde aparecen los planos de planta, fachadas, secciones, perspectivas, fundaciones,

columnas, detalles y otros.

Dibujo mecánico: El dibujo mecánico se emplea en la representación de piezas o partes de máquinas,

maquinarias, vehículos como grúas y motos, aviones, helicópteros y máquinas industriales. Los planos que

representan un mecanismo simple o una máquina formada por un conjunto de piezas, son llamados planos de

conjunto; y los que representa un sólo elemento, plano de pieza. Los que representan un conjunto de piezas

con las indicaciones gráficas para su colocación, y armar un todo, son llamados planos de montaje.

Dibujo eléctrico: Este tipo de dibujo se refiere a la representación gráfica de instalaciones eléctricas en una

industria, oficina o vivienda o en cualquier estructura arquitectónica que requiera de electricidad. Mediante la

simbología correspondiente se representan acometidas, caja de contador, tablero principal, línea de circuitos,

interruptores, toma corrientes, salidas de lámparas entre otros.

Dibujo electrónico: Se representa los circuitos que dan funcionamiento preciso a diversos aparatos que en la

actualidad constituyen un adelanto tecnológico como las computadoras, amplificadores, transmisores, relojes,

televisores, radios y otros.

Dibujo geológico: El dibujo geológico se emplea en geografía y en geología, en él se representan las

diversas capas de la tierra empleando una simbología y da a conocer los minerales contenidos en cada capa.

Se usa mucho en minería y en exploraciones de yacimientos petrolíferos.

Dibujo topográfico: El dibujo topográfico nos representa gráficamente las características de una determinada

extensión de terreno, mediante signos convencionalmente establecidos. Nos muestra los accidentes naturales

y artificiales, cotas o medidas, curvas horizontales o curvas de nivel.

Dibujo urbanístico: Este tipo de dibujo se emplea en la organización de ciudades: en la ubicación de centros

urbanos, zonas industriales, bulevares, calles, avenidas, jardines, autopistas, zonas recreativas entre otros.

Se dibujan anteproyectos, proyectos, planos de conjunto, planos de pormenor.

Dibujo técnico de instalaciones sanitarias:Tiene por finalidad representar el posicionamiento de cada una

de las piezas sanitarias:ducha, lavamanos, retrete,etc.Incluyendo la ubicación de las tuberías internas o

externas.

Page 8: Trabajo de Yuo

Historia del dibujo técnico

Lápices y plumas para dibujo técnico.

La historia del dibujo técnico se inicia gracias a la necesidad de grafismos o dibujos. Las primeras

representaciones que conocemos son laspinturas rupestres, en ellas no solo se intentaba representar la

realidad que le rodeaba, animales, astros, al propio ser humano, etc., sino también sensaciones, como

la alegría de las danzas, o la tensión de las cacerías.

A lo largo de la historia, esta necesidad de comunicarse mediante dibujos, ha evolucionado, dando por

un lado al dibujo artístico y por otro al dibujo técnico. Mientras el dibujo artístico intenta comunicar ideas

y sensaciones, basándose en la sugerencia y estimulando la imaginación del espectador, el dibujo

técnico, tiene como fin, la representación de los objetos lo más exactamente posible, en forma y

dimensiones.

Hoy en día, se está produciendo una confluencia entre los objetivos del dibujo artístico y técnico. Esto es

consecuencia de la utilización de los ordenadores en el dibujo técnico, con ellos se obtienen

recreaciones virtuales en 3D, que si bien representan los objetos en verdadera magnitud y forma,

también conllevan una fuerte carga de sugerencia para el espectador.

Primeras manifestaciones[editar · editar código]

La primera manifestación conocida del dibujo técnico está en un dibujo de construcción que aparece

esculpido en la estatua llamada El arquitecto, que representa al gobernador sumerio Gudea―quien

gobernó entre el 2144 y el 2124 (o 2122) a. C.―, y que se encuentra en el Museo del Louvre de París.

Del año 1650 a. C. data el papiro de Ahmes. Este escriba egipcio, redactó, en un papiro de 33 × 548 cm,

una exposición de contenido geométrico dividida en cinco partes que abarcan: laaritmética,

la estereotomía, la geometría y el cálculo de pirámides. En este papiro se llega a dar un valor

aproximado del número pi.

Page 9: Trabajo de Yuo

En el año 600 a. C. encontramos a Tales, filósofo griego nacido en Mileto. Fue el fundador de la filosofía

griega, y está considerado como uno de los Siete Sabios de Grecia. Tenía conocimientos en todas las

ciencias, pero llegó a ser famoso por sus conocimientos de astronomía, después de predecir el eclipse

de sol que ocurrió el 28 de mayo del 585 a. C. Se dice de él que introdujo la geometría en Grecia,

ciencia que aprendió en Egipto. Sus conocimientos, le sirvieron para descubrir importantes propiedades

geométricas. Tales no dejó escritos: el conocimiento que se tiene de él procede de lo que se cuenta en

la Metafísica de Aristóteles.

Nacido en la isla de Samos, Pitágoras fue instruido en las enseñanzas de los primeros filósofos jonios,

Tales de Mileto, Anaximandro y Anaxímenes. Fundó un movimiento con propósitos religiosos, políticos y

filosóficos, conocido como pitagorismo. A dicha escuela se le atribuye el estudio y trazado de los tres

primeros poliedros regulares: tetraedro, hexaedro y octaedro. Pero quizás su contribución más conocida

en el campo de la geometría es el teorema de la hipotenusa, conocido como teorema de Pitágoras, que

establece que "en un triángulo rectángulo, el cuadrado de la hipotenusa, es igual a la suma de los

cuadrados de los catetos".

En el año 300 a. C., encontramos a Euclides, matemático griego. Su obra principal Elementos de

geometría, es un extenso tratado de matemáticas en 13 volúmenes sobre materias tales

como:geometría plana, magnitudes inconmensurables y geometría del espacio (Véase Geometría

euclidiana). Probablemente estudio en Atenas con discípulos de Platón. Enseñó geometría enAlejandría,

y allí fundó una escuela de matemáticas.

Arquímedes (287-212 a. C.), notable matemático e inventor griego, que escribió importantes obras sobre

geometría plana y del espacio, aritmética y mecánica. Nació en Siracusa, Sicilia, y se educó en

Alejandría (Egipto). Inventó formas de medir el área de figuras curvas, así como la superficie y

el volumen de sólidos limitados por superficies curvas. Demostró que el volumen de unaesfera es dos

tercios del volumen del cilindro que la circunscribe. También elaboró un método para calcular una

aproximación del valor de pi (p), la proporción entre el diámetro y la circunferenciade un círculo, y

estableció que este número estaba en 3 10/70 y 3 10/71.

Apolonio de Perga, matemático griego, llamado «el Gran Geómetra», que vivió durante los últimos años

del siglo III y principios del siglo II a. C. Nació en Perga (en la región de Panfilia, en la actual Turquía).

Su mayor aporte a la geometría fue el estudio de las curvas cónicas, que reflejó en su Tratado de las

cónicas, que en un principio estaba compuesto por ocho libros.

Un sketch es una escena que dura entre uno y diez minutos aproximadamente. En ella

participan actores o comediantes y puede ser montada en un teatro o difundida

por televisión e Internet.

Page 10: Trabajo de Yuo

Los sketches, que solían usarse en los vodeviles, han sido incorporados a espectáculos de

variedades, programas cómicos, entretenimiento para adultos, talk shows y algunos shows

infantiles, como Plaza Sésamo.

A menudo, el sketch es improvisado por los actores la primera vez que se realiza y el

resultado de ésto es posteriormente transcrito a modo de libreto. No obstante, la

improvisación no se practica necesariamete en todas las ocasiones.

Historia[editar · editar código]

Los sketches tienen su origen en los vodeviles y en los music halls, donde un gran número de

breves, pero hilarantes actos eran exhibidos uno tras otro para formar un programa mayor.

EnInglaterra, las escenas pasaron del escenario a las radioemisoras y de éstas a la televisón.

Históricamente, los sketches no estaban relacionados entre sí, pero más recientemente se ha

impuesto la moda de reunir todos los actos bajo un mismo tema, con personajes recurrentes que

aparecen más de una vez. Esta idea fue tomada del cuarteto británico The League of Gentlemen,

cuyos sketches narran las historias de los habitantes del pueblo fiticio de Royston Vasey.

En Norteamérica, los sketches contemporáneos son la consecuencia de las improvisaciones de

los años 1970. Por el contrario, los actos británicos han sido desarrollados mayoritariamente

gracias a la escritura, con autores que, a menudo, trabajan en parejas.

Algunos grupos contemporáneos que realizan notables sketches sobre escenarios son The Second

City, los Upright Citizens Brigade y The Groundlings. Los programas de televisión que más se

destacan con sus breves escenas cómicas son Saturday Night Live, Mad TV y In Living Color,

entre otros.

Una de las últimas tendencias de la comedia con sketches es distribuirla a través de Internet. Las

escenas creadas por aficionados y profesionales son vistas por millones de personas en sitios web

como YouTube, Super Deluxe y iFilm.

1. eHow en Español »2. Pasatiempos »3. Métodos de dibujo técnico

Métodos de dibujo técnicoEscrito por Kyle Fiechter | Traducido por Jose Luis Sabogal

 

 

 

Page 11: Trabajo de Yuo

Las herramientas proveen una forma precisa de crear dibujos técnicos precisos.drafting image by Kimberly Reinick from Fotolia.com

Los dibujos técnicos, de acuerdo a Tooley y Dingle, autores del libro "Ingeniería nacional Btec: unidades principales para todos los caminos nacionales de ingeniería Btec", son "representaciones gráficas de una idea o producto que debe ser procesado, fabricado o construído". Estos dibujos (también conocidos como planos) son a menudo utilizados por diseñadores, arquitectos e ingenieros para describir de manera precisa un objeto. Hoy, el diseño dirigido por computador (CAD) es a menudo utilizado para acelerar este proceso, debido a que las bases del dibujo técnico son muy importantes en aspecto de diseño.

Otras personas están leyendo

Ejercicios de dibujo técnico

Cómo enseñar dibujo técnico a estudiantes

Visualización espacialLa práctica de la visualización espacial te permite representar un objeto tridimensional como un dibujo de dos dimensiones y tomar la información de un dibujo de dos dimensiones y formar una imagen mental de cómo luce el dibujo en un objeto de tres dimensiones. Goetsch, autor de "Dibujo técnico", apunta que, algunas personas poseen el talento de la visualización espacial, muchos no lo tienen; sin embargo, aquellos que no son naturalmente hábiles pueden aprender con la práctica.

Proyección ortográficaLos dibujos ortográficos son representaciones bidimensionales de un dibujo de un objeto en serie para crear vistas multi fragmentarias de un objeto. De acuerdo a Mitton, autor de "presentación visual del diseño interior", es de gran ayuda, visualizar estas proyecciones como una caja transparente: el "plano" es la vista desde la parte superior de esta caja

Page 12: Trabajo de Yuo

transparente. Las "elevaciones" están representadas por las vistas de los lados de la caja, mostrando el objeto visible en una imagen plana. Cuando la construcción o el objeto es dibujado como un plano vertical cortado, esto se llama una "sección"; similarmente, un plano horizontal que se ha cortado a través de la construccióno un objeto revela una vista "plano de piso". Dobson de forum4.info dice que los dibujos ortográficos incluyen arreglos generales, dibujos, desarrollos y secciones que muestran características internas.

Dibujos ilustradosLos dibujos ilustrados, o dibujos en tres dimensiones, pueden variar de los bosquejos hechos a mano, hasta ilustraciones precisas y detalladas en perspectiva según Mitton. Estos dibujos pueden ser útiles para presentar diseños a los clientes y permitir a los diseñadores ver el volumen entero del espacio. Una forma de dibujos ilustrados es un dibujo paralíneo. Ching, en su libro "gráficos de arquitectura", describe que estos dibujos comprenden proyecciones axonométricas (isométricas, dimétricas, trimétricas) y oblicuas. Estos dibujos tienen tres características en común, dice Mitton: líneas paralelas que son dibujadas en paralelo, sin puntos convergentes ni de fuga; líneas verticales dibujadas como verticales verdaderas; y es utilizado algún método de escala proporcional. A la inversa, los dibujos en perspectiva(también dibujos ilustrados) muestran un objeto de tres dimensiones como si fuera visto desde una ventana, completo con líneas convergentes y con puntos de fuga.

Métodos modernos de dibujo. La modernización del dibujo técnico radica en los años 1850 con la primera compañía manufacturera de instrumentos de dibujo en los EE.UU. En 1876 se inicia el procedimiento de copias heliográficas, descartando así las técnicas de dibujo en líneas finas mediante el uso de sombra o matices y el empleo de aguadas en acuarela.

Hasta aproximadamente el inicio del siglo XX, los dibujos se hacían generalmente en lo que se llama proyección de primer ángulo en la cual la vista de la planta se colocaba bajo la vista frontal, la vista del costado izquierdo, se colocaba a la derecha de la vista frontal. Etc. Para entonces EE.UU. La práctica gradualmente, se definió a favor de la actual proyección de tercer ángulo en la cual vistas o elevaciones quedan situada en lo que consideremos como posibles lógicas o naturales.

Existen varias técnicas de dibujo como son: 

• Técnica a lápiz • Técnica a tinta • Técnica de plumón • Técnica de gonache • Técnica de acuarela • Técnica de color • Técnica de aerógrafo

Mejor respuesta - elegida por los votantes

1.- Lineas2.- Colores3.- Formas

Page 13: Trabajo de Yuo

4.- Volumen5.- Pintura6.- Detalles7.- Medida8.- Tono9.- Intensidad10.- Características11.- Modalidad12.- Diseño13.- Contraste14.- Nitidez15.- Arte16.- Emoción17.- Expresividad18.- Talento19.- Curvas20.- Pincel21.- Papel22.- Acuarelas23.- Imagen24.- Figura25.- Gráficos26.- Ideas27.- Símbolos28.- Boceto29.- Sombreado30.- Proporciones31.- Pigmentos

Fuente(s):Saludos. Fuente: Yo. =)

ESTADISTICADefiniciones de estadística.

Estadística, rama de las matemáticas que se ocupa de reunir, organizar y analizar datos numéricos y que ayuda a resolver problemas como el diseño de experimentos y la toma de decisiones.

La estadística es un lenguaje que permite comunicar información basados en datos cuantitativos.

La estadística es un potente auxiliar de muchas ciencias y actividades humanas. Es una herramienta indispensable para la toma de decisiones. También es empleada para mostrare los aspectos cuantitativos de una situación.

Historia de la estadística a nivel mundial.

Page 14: Trabajo de Yuo

Desde los comienzos de la civilización han existido formas sencillas de estadística, pues ya se utilizaban representaciones gráficas y otros símbolos en pieles, rocas, palos de madera y paredes de cuevas para contar el número de personas, animales o cosas.

Hacia el año 3000 a. C. los babilonios usaban pequeñas tablillas de arcilla para recopilar datos sobre la producción agrícola y sobre los géneros vendidos o cambiados mediante trueque.

En el siglo XXXI a. C., mucho antes de construir las pirámides, los egipcios analizaban los datos de la población y la renta del país. Los libros bíblicos de Números y Crónicas incluyen, en algunas partes, trabajos de estadística. El primero contiene dos censos de la población de Israel y el segundo describe el bienestar material de las diversas tribus judías.

En China existían registros numéricos similares con anterioridad al año 2000 a. C. Los griegos clásicos realizaban censos cuya información se utilizaba hacia el 594 a. C. para cobrar impuestos.

El Imperio romano fue el primer gobierno que recopiló una gran cantidad de datos sobre la población, superficie y renta de todos los territorios bajo su control.

Durante la edad media sólo se realizaron algunos censos exhaustivos en Europa. Los reyes caloringios Pipino el Breve y Carlomagno ordenaron hacer estudios minuciosos de las propiedades de la Iglesia en los años 758 y 762 respectivamente.

Después de la conquista normanda de Inglaterra en 1066, el rey Guillermo I de Inglaterra encargó la realización de un censo. La información obtenida con este censo, llevado a cabo en 1086, se recoge en el Domesday Book.

El registro de nacimientos y defunciones comenzó en Inglaterra a principios del siglo XVI, y en 1662 apareció el primer estudio estadístico notable de población, titulado Observations on the London Bills of Mortality Comentarios sobre las partidas de defunción en Londres.

Un estudio similar sobre la tasa de mortalidad en la ciudad de Breslau, en Alemania, realizado en 1691, fue utilizado por el astrónomo inglés Edmund Halley como base para la primera tabla de mortalidad.

En el siglo XIX, con la generalización del método científico para estudiar todos los fenómenos de las ciencias naturales y sociales, los investigadores aceptaron la necesidad de reducir la información a valores numéricos para evitar la ambigüedad de las descripciones verbales.

En nuestros días, la estadística se ha convertido en un método efectivo para describir con exactitud los valores de datos económicos, políticos, sociales, psicológicos, biológicos o físicos, y sirve como herramienta para relacionar y analizar dichos datos.

El trabajo del experto estadístico no consiste ya sólo en reunir y tabular los datos, sino sobre todo en el proceso de “interpretación” de esa información. El desarrollo de la teoría de la probabilidad ha aumentado el alcance de las aplicaciones de la estadística. Muchos conjuntos de datos se pueden aproximar, con gran exactitud, utilizando determinadas distribuciones probabilísticas; los resultados de éstas se pueden utilizar para analizar datos estadísticos.

La probabilidad es útil para comprobar la fiabilidad de las inferencias estadísticas y para predecir el tipo y la cantidad de datos necesarios en un determinado estudio estadístico.

Aplicación de estadística en contabilidad.

Page 15: Trabajo de Yuo

En contabilidad la estadística es muy importante y se aplica para seleccionar muestra, cuando se pretende hacer una auditoria; también para medir variación de costos de producción.

Diferencia entre estadística y estadísticas.

La estadística sin “s” es la que se refiere a la asignatura a lo que estudiamos actualmente, la ciencia en si; mientras que la estadísticas con “s” se refiere a los datos ya estudiados y organizados.

Diferencia entre estadística descriptiva y estadística inferencial.

La estadística descriptiva analiza, estudia y describe a la totalidad de individuos de una población. Su finalidad es obtener información, analizarla, elaborarla y simplificarla lo necesario para que pueda ser interpretada cómoda y rápidamente y, por tanto, pueda utilizarse eficazmente para el fin que se desee.

La estadística inferencial, sin embargo, trabaja con muestras, subconjuntos formados por algunos individuos de la población. A partir del estudio de la muestra se pretende inferir aspectos relevantes de toda la población. Cómo se selecciona la muestra, cómo se realiza la inferencia, y qué grado de confianza se puede tener en ella son aspectos fundamentales de la estadística inferencial, para cuyo estudio se requiere un alto nivel de conocimientos de estadística, probabilidad y matemáticas.

Concepto de población y muestra estadística.

Se llama población al conjunto de todos los elementos cuyo conocimiento interesa. Cada uno de esos elementos es un individuo. Si se está estudiando el resultado de ciertos experimentos químicos, cada uno de esos experimentos será un individuo estadístico y el conjunto de todos los posibles experimentos en esas condiciones será la población.

Muestra estadística es una porción de la población que se selecciona para fines de análisis. La muestra siempre debe ser representativa de la población de la cual se extrae, o sea, que cada uno de los elementos de la población tenga la misma oportunidad de ser seleccionado en la muestra.

EstadísticaPara análisis, datos y gráficas sobre Wikipedia, véase Wikipedia:Estadísticas.

La estadística es una ciencia formal que estudia la recolección, análisis e interpretación de datos de

una muestra representativa, ya sea para ayudar en la toma de decisiones o para explicar condiciones

regulares o irregulares de algún fenómeno o estudio aplicado, de ocurrencia en

forma aleatoria o condicional.

Sin embargo, la estadística es más que eso, es decir, es la herramienta fundamental que permite llevar

a cabo el proceso relacionado con la investigación científica.

Page 16: Trabajo de Yuo

Distribución normal

Es transversal a una amplia variedad de disciplinas, desde la física hasta las ciencias sociales, desde

las ciencias de la saludhasta el control de calidad.

Se usa para la toma de decisiones en áreas de negocios o instituciones gubernamentales.

La estadística se divide en dos grandes áreas:

La estadística descriptiva, se dedica a la descripción, visualización y resumen de datos originados a

partir de los fenómenos de estudio. Los datos pueden ser resumidos numérica o gráficamente.

Ejemplos básicos de parámetros estadísticos son: lamedia y la desviación estándar. Algunos

ejemplos gráficos son: histograma, pirámide poblacional, gráfico circular, entre otros.

La estadística inferencial, se dedica a la generación de los modelos, inferencias y predicciones

asociadas a los fenómenos en cuestión teniendo en cuenta la aleatoriedad de las observaciones.

Se usa para modelar patrones en los datos y extraer inferencias acerca de la población bajo

estudio. Estas inferencias pueden tomar la forma de respuestas a preguntas si/no (prueba de

hipótesis), estimaciones de unas características numéricas (estimación), pronósticos de futuras

observaciones, descripciones de asociación (correlación) o modelamiento de relaciones entre

variables (análisis de regresión). Otras técnicas de modelamiento incluyen anova, series de

tiempo y minería de datos.

Ambas ramas (descriptiva e inferencial) comprenden la estadística aplicada.

Hay también una disciplina llamada estadística matemática, la que se refiere a las bases teóricas de la

materia.

La palabra «estadísticas» también se refiere al resultado de aplicar un algoritmo estadístico a un

conjunto de datos, como en estadísticas económicas, estadísticas criminales, entre otros.

Page 17: Trabajo de Yuo

Índice

  [ocultar] 

1   Historia

o 1.1   Origen

o 1.2   Orígenes en probabilidad

o 1.3   Estado actual

2   Métodos estadísticos

o 2.1   Estudios experimentales y observacionales

o 2.2   Niveles de medición

o 2.3   Técnicas de análisis estadístico

3   Disciplinas especializadas

4   Computación estadística

5   Críticas a la estadística

6   Estadísticos famosos

7   Notas

8   Bibliografía

9   Enlaces externos

Historia[editar · editar código]

Origen[editar · editar código]

El término alemán Statistik, introducido originalmente por Gottfried Achenwall en 1749, se refería al

análisis de datos del Estado, es decir, la "ciencia del Estado" (o más bien, de la ciudad-estado).

También se llamó aritmética política de acuerdo con la traducción literal del inglés. No fue hasta el siglo

XIX cuando el término estadística adquirió el significado de recolectar y clasificar datos. Este concepto

fue introducido por el militar británico Sir John Sinclair (1754-1835).

En su origen, por tanto, la Estadística estuvo asociada a los Estados o ciudades libres, para ser

utilizados por el gobierno y cuerpos administrativos (a menudo centralizados). La colección de datos

acerca de estados y localidades continúa ampliamente a través de los servicios de estadística

nacionales e internacionales. En particular, los censos comenzaron a suministrar información regular

acerca de la población de cada país. Así pues, los datos estadísticos se referían originalmente a los

datos demográficos de una ciudad o estado determinados. Y es por ello que en la clasificación decimal

de Melvil Dewey, empleada en las bibliotecas, todas las obras sobre estadística se encuentran ubicadas

al lado de las obras de o sobre la demografía.

Page 18: Trabajo de Yuo

Ya se utilizaban representaciones gráficas y otras medidas en pieles, rocas, palos de madera y paredes

de cuevas para controlar el número de personas, animales o ciertas mercancías. Hacia el

año 3000 a. C. los babilonios usaban ya pequeños envases moldeados de arcilla para recopilar datos

sobre la producción agrícola y de los géneros vendidos o cambiados. Los egipcios analizaban los datos

de la población y la renta del país mucho antes de construir las pirámides en el siglo XI a. C. Los libros

bíblicos de Números y Crónicas incluyen en algunas partes trabajos de estadística. El primero cona

están ubicadas al lado de las demográficas. La estadística tiene dos censos de la población de la Tierra

de Israel y el segundo describe el bienestar material de las diversas tribus judías. En China existían

registros numéricos similares con anterioridad al año 2000 a. C. Los antiguos griegos realizaban censos

cuya información se utilizaba hacia el594 a. C. para cobrar impuestos.

Orígenes en probabilidad[editar · editar código]

Los métodos estadístico-matemáticos emergieron desde la teoría de probabilidad, la cual data desde la

correspondencia entre Pascal y Pierre de Fermat (1654). Christian Huygens (1657) da el primer

tratamiento científico que se conoce a la materia. El Ars coniectandi (póstumo, 1713) de Jakob Bernoulli

y la Doctrina de posibilidades (1718) de Abraham de Moivre estudiaron la materia como una rama de las

matemáticas.1 En la era moderna, el trabajo de Kolmogórov ha sido un pilar en la formulación del

modelo fundamental de la Teoría de Probabilidades, el cual es usado a través de la estadística.

La teoría de errores se puede remontar a la Ópera miscellánea (póstuma, 1722) de Roger Cotes y al

trabajo preparado por Thomas Simpson en 1755 (impreso en 1756) el cual aplica por primera vez la

teoría de la discusión de errores de observación. La reimpresión (1757) de este trabajo incluye

el axioma de que errores positivos y negativos son igualmente probables y que hay unos ciertos límites

asignables dentro de los cuales se encuentran todos los errores; se describen errores continuos y una

curva de probabilidad.

Pierre-Simon Laplace (1774) hace el primer intento de deducir una regla para la combinación de

observaciones desde los principios de la teoría de probabilidades. Laplace representó la Ley de

probabilidades de errores mediante una curva y dedujo una fórmula para la media de tres

observaciones. También, en 1871, obtiene la fórmula para la ley de facilidad del error (término

introducido por Lagrange, 1744) pero con ecuaciones inmanejables. Daniel Bernoulli (1778) introduce el

principio del máximo producto de las probabilidades de un sistema de errores concurrentes.

Page 19: Trabajo de Yuo

Fotografía de Ceres por el telescopio espacial Hubble. La posición fue estimada por Gauss mediante el método de

mínimos cuadrados.

El método de mínimos cuadrados, el cual fue usado para minimizar los errores en mediciones, fue

publicado independientemente por Adrien-Marie Legendre (1805), Robert Adrain (1808), y Carl Friedrich

Gauss (1809). Gauss había usado el método en su famosa predicción de la localización delplaneta

enano Ceres en 1801. Pruebas adicionales fueron escritas por Laplace (1810, 1812), Gauss

(1823), James Ivory (1825, 1826), Hagen (1837),Friedrich Bessel (1838), W.F. Donkin (1844,

1856), John Herschel (1850) y Morgan Crofton (1870). Otros contribuidores fueron Ellis

(1844), Augustus De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de

Peters para  , el probable error de una observación simple es bien conocido.

El siglo XIX incluye autores como Laplace, Silvestre Lacroix (1816), Littrow (1833), Richard

Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion y Karl Pearson. Augustus De

Morgan y George Boole mejoraron la presentación de la teoría. Adolphe Quetelet (1796-1874), fue otro

importante fundador de la estadística y quien introdujo la noción del «hombre promedio» (l’homme

moyen) como un medio de entender los fenómenos sociales complejos tales como tasas de

criminalidad, tasas de matrimonio o tasas de suicidios.

Estado actual[editar · editar código]

Durante el siglo XX, la creación de instrumentos precisos para asuntos de salud

pública (epidemiología, bioestadística, etc.) y propósitos económicos y sociales (tasa

de desempleo, econometría, etc.) necesitó de avances sustanciales en las prácticas estadísticas.

Hoy el uso de la estadística se ha extendido más allá de sus orígenes como un servicio al Estado o al

gobierno. Personas y organizaciones usan la estadística para entender datos y tomar decisiones en

ciencias naturales y sociales, medicina, negocios y otras áreas. La estadística es entendida

generalmente no como un sub-área de las matemáticas sino como una ciencia diferente «aliada».

Page 20: Trabajo de Yuo

Muchas universidades tienen departamentos académicos de matemáticas y estadística separadamente.

La estadística se enseña en departamentos tan diversos como psicología, educación y salud pública.

Regresión lineal - Gráficos de dispersiónen estadística.

Al aplicar la estadística a un problema científico, industrial o social, se comienza con un proceso

o población a ser estudiado. Esta puede ser la población de un país, de granos cristalizados en una roca

o de bienes manufacturados por una fábrica en particular durante un periodo dado. También podría ser

un proceso observado en varios ascos instantes y los datos recogidos de esta manera constituyen

una serie de tiempo.

Por razones prácticas, en lugar de compilar datos de una población entera, usualmente se estudia un

subconjunto seleccionado de la población, llamado muestra. Datos acerca de la muestra son recogidos

de manera observacional o experimental. Los datos son entonces analizados estadísticamente lo cual

sigue dos propósitos: descripción e inferencia.

El concepto de correlación es particularmente valioso. Análisis estadísticos de un conjunto de

datos puede revelar que dos variables (esto es, dos propiedades de la población bajo consideración)

tienden a variar conjuntamente, como si hubiera una conexión entre ellas. Por ejemplo, un estudio del

ingreso anual y la edad de muerte podría resultar en que personas pobres tienden a tener vidas más

cortas que personas de mayor ingreso. Las dos variables se dicen que están correlacionadas. Sin

embargo, no se puede inferir inmediatamente la existencia de una relación de causalidad entre las dos

variables. El fenómeno correlacionado podría ser la causa de una tercera, previamente no considerada,

llamada variable confusora.

Si la muestra es representativa de la población, inferencias y conclusiones hechas en la muestra pueden

ser extendidas a la población completa. Un problema mayor es el de determinar que tan representativa

es la muestra extraída. La estadística ofrece medidas para estimar y corregir por aleatoriedad en la

Page 21: Trabajo de Yuo

muestra y en el proceso de recolección de los datos, así como métodos para diseñar experimentos

robustos como primera medida, ver diseño experimental.

El concepto matemático fundamental empleado para entender la aleatoriedad es el de probabilidad.

La estadística matemática (también llamada teoría estadística) es la rama de lasmatemáticas

aplicadas que usa la teoría de probabilidades y el análisis matemático para examinar las bases teóricas

de la estadística.

El uso de cualquier método estadístico es válido solo cuando el sistema o población bajo consideración

satisface los supuestos matemáticos del método. El mal uso de la estadística puede producir serios

errores en la descripción e interpretación, afectando las políticas sociales, la práctica médica y la calidad

de estructuras tales como puentes y plantas de reacción nuclear.

Incluso cuando la estadística es correctamente aplicada, los resultados pueden ser difícilmente

interpretados por un inexperto. Por ejemplo, el significado estadístico de una tendencia en los datos, que

mide el grado al cual la tendencia puede ser causada por una variación aleatoria en la muestra, puede

no estar de acuerdo con el sentido intuitivo. El conjunto de habilidades estadísticas básicas (y el

escepticismo) que una persona necesita para manejar información en el día a día se refiere como

«cultura estadística».

Métodos estadísticos[editar · editar código]

Estudios experimentales y observacionales[editar · editar código]

Un objetivo común para un proyecto de investigación estadística es investigar la causalidad, y en

particular extraer una conclusión en el efecto que algunos cambios en los valores de predictores

o variables independientes tienen sobre una respuesta o variables dependientes. Hay dos grandes tipos

de estudios estadísticos para estudiar causalidad: estudios experimentales y observacionales. En

ambos tipos de estudios, el efecto de las diferencias de una variable independiente (o variables) en el

comportamiento de una variable dependiente es observado. La diferencia entre los dos tipos es la forma

en que el estudio es conducido. Cada uno de ellos puede ser muy efectivo.

Niveles de medición[editar · editar código]

Hay cuatro tipos de mediciones o escalas de medición en estadística. Los cuatro tipos de niveles de

medición (nominal, ordinal, intervalo y razón) tienen diferentes grados de uso en

lainvestigación estadística. Las medidas de razón, en donde un valor cero y distancias entre diferentes

mediciones son definidas, dan la mayor flexibilidad en métodos estadísticos que pueden ser usados

para analizar los datos. Las medidas de intervalo tienen distancias interpretables entre mediciones, pero

un valor cero sin significado (como las mediciones de coeficiente intelectual o temperatura en

grados Celsius). Las medidas ordinales tienen imprecisas diferencias entre valores consecutivos, pero

Page 22: Trabajo de Yuo

un orden interpretable para sus valores. Las medidas nominales no tienen ningún rango interpretable

entre sus valores.

La escala de medida nominal, puede considerarse la escala de nivel más bajo. Se trata de agrupar

objetos en clases. La escala ordinal, por su parte, recurre a la propiedad de «orden» de los números. La

escala de intervalos iguales está caracterizada por una unidad de medida común y constante. Es

importante destacar que el punto cero en las escalas de intervalos iguales es arbitrario, y no refleja en

ningún momento ausencia de la magnitud que estamos midiendo. Esta escala, además de poseer las

características de la escala ordinal, permite determinar la magnitud de los intervalos (distancia) entre

todos los elementos de la escala. La escala de coeficientes o Razones es el nivel de medida más

elevado y se diferencia de las escalas de intervalos iguales únicamente por poseer un punto cero propio

como origen; es decir que el valor cero de esta escala significa ausencia de la magnitud que estamos

midiendo. Si se observa una carencia total de propiedad, se dispone de una unidad de medida para el

efecto. A iguales diferencias entre los números asignados corresponden iguales diferencias en el grado

de atributo presente en el objeto de estudio.

Técnicas de análisis estadístico[editar · editar código]

Algunos tests y procedimientos para investigación de observaciones bien conocidos son:

Prueba t de Student

Prueba de χ²

Análisis de varianza (ANOVA)

U de Mann-Whitney

Análisis de regresión

Correlación

Iconografía de las correlaciones

Frecuencia estadística

Análisis de frecuencia acumulada

Prueba de la diferencia menos significante de Fisher

Coeficiente de correlación de Pearson

Coeficiente de correlación de Spearman

Análisis factorial exploratorio

Análisis factorial confirmatorio

Gráfica estadística

Disciplinas especializadas[editar · editar código]

Page 23: Trabajo de Yuo

Algunos campos de investigación usan la estadística tan extensamente que tienen terminología

especializada. Estas disciplinas incluyen:

Ciencias actuariales

Física estadística

Estadística industrial

Estadística Espacial

Matemáticas Estadística

Estadística en Medicina

Estadística en Medicina Veterinaria y Zootecnia

Estadística en Nutrición

Estadística en Agronomía

Estadística en Planificación

Estadística en Investigación

Estadística en Restauración de Obras

Estadística en Literatura

Estadística en Astronomía

Estadística en la Antropología (Antropometría)

Estadística en Historia

Estadística militar

Geoestadística

Bioestadística

Estadísticas de Negocios

Estadística Computacional

Estadística en las Ciencias de la Salud

Investigación de Operaciones

Estadísticas de Consultoría

Estadística de la educación, la enseñanza, y la formación

Estadística en la comercialización o mercadotecnia

Cienciometría

Estadística del Medio Ambiente

Estadística en Epidemiología

Minería de datos (aplica estadística y reconocimiento de patrones para el conocimiento de datos)

Econometría (Estadística económica)

Page 24: Trabajo de Yuo

Estadística en Ingeniería

Geografía y Sistemas de información geográfica, más específicamente en Análisis espacial

Demografía

Estadística en psicología (Psicometría)

Calidad y productividad

Estadísticas sociales (para todas las ciencias sociales)

Cultura estadística

Encuestas por Muestreo

Análisis de procesos y quimiometría (para análisis de datos en química analítica e ingeniería

química)

Confiabilidad estadística

Procesamiento de imágenes

Estadísticas Deportivas

La estadística es una herramienta básica en negocios y producción. Es usada para entender la

variabilidad de sistemas de medición, control de procesos (como en control estadístico de procesos o

SPC (CEP)), para compilar datos y para tomar decisiones. En estas aplicaciones es una herramienta

clave, y probablemente la única herramienta disponible.

Computación estadística[editar · editar código]

El rápido y sostenido incremento en el poder de cálculo de la computación desde la segunda mitad del

siglo XX ha tenido un sustancial impacto en la práctica de la ciencia estadística. Viejos modelos

estadísticos fueron casi siempre de la clase de los modelos lineales. Ahora, complejos computadores

junto con apropiados algoritmos numéricos, han causado un renacer del interés en modelos no

lineales (especialmente redes neuronales y árboles de decisión) y la creación de nuevos tipos tales

como modelos lineales generalizados y modelos multinivel.

El incremento en el poder computacional también ha llevado al crecimiento en popularidad de métodos

intensivos computacionalmente basados en remuestreo, tales como tests de permutación y

de bootstrap, mientras técnicas como el muestreo de Gibbs han hecho los métodos bayesianos más

accesibles. La revolución en computadores tiene implicaciones en el futuro de la estadística, con un

nuevo énfasis en estadísticas «experimentales» y «empíricas». Un gran número de paquetes

estadísticos está ahora disponible para los investigadores. Los sistemas dinámicos y teoría del caos,

desde hace una década, empezaron a interesar en la comunidad hispana, pues en la anglosajona de

Estados Unidos estaba ya establecida la «conducta caótica en sistemas dinámicos no lineales» con 350

Page 25: Trabajo de Yuo

libros para 1997 y empezaban algunos trabajos en los campos de las ciencias sociales y en aplicaciones

de la física. También se estaba contemplando su uso en analítica.

Véase también: Computación Científica

Críticas a la estadística[editar · editar código]

Hay una percepción general de que el conocimiento estadístico es intencionado y frecuentemente mal

usado, encontrando maneras de interpretar los datos que sean favorables al presentador. Un dicho

famoso, al parecer de Benjamin Disraeli,2 es: «Hay tres tipos de mentiras: mentiras pequeñas, mentiras

grandes y estadísticas». El popular libro How to lie with statistics (Cómo mentir con las estadísticas en la

edición española) de Darrell Huff discute muchos casos de mal uso de la estadística, con énfasis en

gráficas malintencionadas. Al escoger (o rechazar o modificar) una cierta muestra, los resultados

pueden ser manipulados; por ejemplo, mediante la eliminación selectiva de valores atípicos (outliers).

Este puede ser el resultado de fraudes o sesgos intencionales por parte del investigador (Darrel

Huff3 ). Lawrence Lowell (decano de la Universidad de Harvard) escribió en 1909 que las estadísticas,

«como algunos pasteles, son buenas si se sabe quién las hizo y se está seguro de los ingredientes».

Algunos estudios contradicen resultados obtenidos previamente, y la población comienza a dudar en la

veracidad de tales estudios. Se podría leer que un estudio dice (por ejemplo) que «hacer X reduce la

presión sanguínea», seguido por un estudio que dice que «hacer X no afecta la presión sanguínea»,

seguido por otro que dice que «hacer X incrementa la presión sanguínea». A menudo los estudios se

hacen siguiendo diferentes metodologías, o estudios en muestras pequeñas que prometen resultados

maravillosos que no son obtenibles en estudios de mayor tamaño. Sin embargo, muchos lectores no

notan tales diferencias, y los medios de comunicación simplifican la información alrededor del estudio y

la desconfianza del público comienza a crecer.

Sin embargo, las críticas más fuertes vienen del hecho que la aproximación de pruebas de hipótesis,

ampliamente usada en muchos casos requeridos por ley o reglamentación, obligan una hipótesis a ser

'favorecida' (la hipótesis nula), y puede también exagerar la importancia de pequeñas diferencias en

estudios grandes. Una diferencia que es altamente significativa puede ser de ninguna significancia

práctica.

Véase también críticas de prueba de hipótesis y controversia de la hipótesis nula.

En los campos de la psicología y la medicina, especialmente con respecto a la aprobación de

nuevos medicamentos por la Food and Drug Administration, críticas de la aproximación de prueba

de hipótesis se han incrementado en los años recientes. Una respuesta ha sido un gran énfasis en

el p-valor en vez de simplemente reportar si la hipótesis fue rechazada al nivel de significancia   

dado. De nuevo, sin embargo, esto resume la evidencia para un efecto pero no el tamaño del

Page 26: Trabajo de Yuo

efecto. Una posibilidad es reportar intervalos de confianza, puesto que estos indican el tamaño del

efecto y la incertidumbre. Esto ayuda a interpretar los resultados, como el intervalo de confianza

para un   dado indicando simultáneamente la significancia estadística y el efecto de tamaño.

El p valor y los intervalos de confianza son basados en los mismos cálculos fundamentales como

aquellos para las correspondientes pruebas de hipótesis. Los resultados son presentados en un

formato más detallado, en lugar del si-o-no de las pruebas de hipótesis y con la misma metodología

estadística.

Otro tipo de aproximación es el uso de métodos bayesianos. Esta aproximación ha sido, sin

embargo, también criticada.

El fuerte deseo de que los medicamentos buenos sean aprobados y que los medicamentos

peligrosos o de poco uso sean rechazados crea tensiones y conflictos (errores tipo I y II en el

lenguaje de pruebas de hipótesis).

Historia de estadística en GuatemalaLa única actividad estadística relevante en esa época fue el registro parroquial de nacimientos, matrimonios y defunciones , aunque los mismos se realizaban con propósito religioso más que estadístico. Es a partir de la Independencia en 1821, como consecuencia de las ideas liberales procedentes de Europa y la comunicación y el intercambio internacional, cuando aparecen en Guatemala los primeros intentos formales de realizar la actividad estadística.Fue el hondureño José Cecilio del Valle, quien figura como el primer intelectual preocupado por la estructuración de la estadística en el Istmo. Él motivó dicha organización, con la publicación de sus artículos “La estadística, plataforma del enaltecimiento social” publicados en el Semanario "EL AMIGO DE LA PATRIA". En sus escritos, José Cecilio del Valle hace referencia a los cálculos que en la actualidad se consideran como demográficos: superficie, densidad de población etc., además de la incipiente estadística fiscal de la época. El esfuerzo personal de Del Valle se materializó con la promulgación de la Ley sobre la manera de hacer estadística en las provincias unidas de Centro América, esta se reconoce como la “PRIMERA LEY DE ESTADÍSTICA”Fue publicada el 15 de noviembre de 1823 y en homenaje a este acontecimiento, desde los años 60’s, se celebra el 15 de noviembre de cada año el DÍA DEL ESTADÍSTICO. al amparo de esta ley se ordena por Decreto, el 19 de mayo de 1824, el levantamiento de los Censos de PoblaciónEl 13 de julio de 1825 se emite Acuerdo que designa a la primera Comisión Nacional de Estadística, integrada entre otros por el doctor Mariano Gálvez, Manuel José Pavón, Francisco Cáscara Acesta, y el Presbítero Isidro Menéndez. Posteriormente por renuncia del señor Pavón fue nombrado el Presbítero José Mariano Herrarte.La constitución de esta comisión marca el inicio de la recolección formal de información sobre hechos de interés para la gestión del Gobierno,...[continua]

Page 27: Trabajo de Yuo

FISICAABREVIATURAS PARA UNIDADES DE MEDIDA

La siguiente lista indica las abreviaturas o símbolos de uso internacional

que representan a las unidades de medida empleadas con mayor frecuencia en

los trabajos por las Revistas Científicas.

Abreviaturas

alternativas que

Abreviatura o no deben usarse

TERMINOLOGIA símbolo correcto (incorrectas)

cuentas por minuto cpm CPM

cuentas por segundo cps CPS

curie Ci

grados celsius ºC

desintegraciones por minutos dpm DPM

desintegraciones por segundo dps DPS

Equivalente Eq

gramo g gr

hora h hr

unidad internacional UI

Page 28: Trabajo de Yuo

kilógramo kg Kg

litro l Lt

metro m mt

molar M

mole mol

osmol osmol

revoluciones por minuto rpm RPM

segundo s seg

kilo-(prefijo) k

deci-(prefijo) d

centi-(prefijo) c

mili-(prefijo) m

micro-(prefijo) µ

nano-(prefijo) n

pico-(prefijo) p

promedio (término estadístico) x

no significativo NS

número de observaciones (estadístico) n Nº

probabilidad (estadístico) p P

Nótese que a ninguna abreviatura o símbolo se le agrega "s" para indicar plural.

Una lista más completa de abreviaturas o símbolos de uso común en biología y

medicina, aparece publicada en Annals of Internal Medicine 1979; 90: 98-9.

Factor de conversiónEl factor de conversión o de unidad es una fracción en la que el numerador y el denominador son

cantidades iguales expresadas en unidades de medida distintas, de tal manera, que esta fracción

equivale a la unidad. Método efectivo para cambio de unidades y resolución de ejercicios sencillos

Page 29: Trabajo de Yuo

dejando de utilizar la regla de tres. Cada factor de conversión se construye con una equivalencia

(igualdad entre dos cantidades).

Ejemplo 1: pasar 15 pulgadas a centímetros (equivalencia: 1 pulgada = 2,54 cm )

el factor unitario :   se construye a partir de la equivalencia dada.

Ejemplo 2: pasar 25 metros por segundo a kilómetros por hora (equivalencias: 1 kilómetro

= 1000 metros, 1 hora = 3600 segundos)

Ejemplo 3: obtener la masa de 10 litros de mercurio (densidad del mercurio: 13,6

kilogramos por decímetro cúbico)

Nótese que un litro es lo mismo que un decímetro cúbico.

En cada una de las fracciones entre paréntesis se ha empleado la misma medida en unidades

distintas de forma que al final sólo quedaba la unidad que se pedía

Factores de Conversion del TiempoMuchas veces en algunos problemas, ya sea en el área de la química y en la física, se nos presenta el tiempo expresado en unidades completamente diferentes a las que se nos están pidiendo, y en estos casos a fin de que podamos convertirlas a la unidad pedida utilizamos los muy conocidos factores de conversión. Aquí les presentamos algunas de las principales equivalencias en las diferentes unidades que existen para medir el tiempo.

1 año = 365 dias 365 dias = 8760h

Page 30: Trabajo de Yuo

365 dias = 3,1536*10e7s 1 dia = 24h 1 dia = 84600s 1 h = 60 min 1 h = 3600s 1 min = 60s

Estos factores de conversion se utilizan como una fraccion dependiendo el orden de numerador y denominador en cual es la unidad que deseamos simplificar, esto debido a que si no colocamos el numerador y denominador en el lugar correcto, nos puede dar nuestro numero en una unidad elevada a una potencia cuadratica, aparte de que nuestro resultado estaria mal calculado. Esto se ha a fin de simplificar unidades, teniendo como numerador en una fraccion h, buscaremos un factor de conversion en el que podamos colocar las horas como denominador pero que nos lleve a la unidad que estamos necesitando y esto nos daria un resultado correctamente expresado desde el punto de vista dimensional.

FACTORES DE CONVERSIÓN PARA VOLUMEN

Describimos algunas Unidades de Conversión para Magnitud Volumen.

Ejemplo:

a) Un motor de un automóvil tiene un desplazamiento del émbolo de 1595 cm3 y un diámetro del cilindro de 83 Mm.  Expresar éstas medidas en Pulgadas Cúbicas y en Pulgadas.

1. Éste problema es diferente, pero siempre empezamos dibujando el Diagrama como guía.

Page 31: Trabajo de Yuo

       2.  En éste caso primero convertimos los 1595   en Pulgadas Cúbicas.

3. Eliminamos las unidades y hacemos las respectivas conversiones para empezar a multiplicar. Dividimos respuestas (86,405,616 ÷ 1000,000).

   4.  Nos da una respuesta de 86.40 5.  Ahora pasamos los 83 mm. a pulgadas.  

 

FísicaEste artículo trata sobre la disciplina académica. Para el tratado de Aristóteles, véase Física

(Aristóteles).

Page 32: Trabajo de Yuo

Si he logrado ver más lejos, ha sido porque he subido a hombros de gigantes.

Sir Isaac Newton

La física (del lat. physica, y este del gr. τὰ φυσικά, neutro plural de φυσικός, "naturaleza") es

la ciencia natural que estudia las propiedades y el comportamiento de la energía y la materia (como

también cualquier cambio en ella que no altere la naturaleza de la misma), así como al tiempo,

el espacio y las interacciones de estos cuatro conceptos entre sí.

La física es una de las más antiguas disciplinas académicas, tal vez la más antigua, ya que

la astronomía es una de sus disciplinas. En los últimos dos milenios, la física fue considerada dentro de

lo que ahora llamamos filosofía, química, y ciertas ramas de la matemática y la biología, pero durante

la Revolución Científica en el siglo XVII surgió para convertirse en una ciencia moderna, única por

derecho propio. Sin embargo, en algunas esferas como la física matemática y la química cuántica, los

límites de la física siguen siendo difíciles de distinguir.

El área se orienta al desarrollo de competencias de una cultura científica, para comprender nuestro

mundo físico, viviente y lograr actuar en él tomando en cuenta su proceso cognitivo, su protagonismo en

el saber y hacer científico y tecnológico, como el conocer, teorizar, sistematizar y evaluar sus actos

dentro de la sociedad. De esta manera, contribuimos a la conservación y preservación de los recursos,

mediante la toma de conciencia y una participación efectiva y sostenida.

La física es significativa e influyente, no sólo debido a que los avances en la comprensión a menudo se

han traducido en nuevas tecnologías, sino también a que las nuevas ideas en la física resuenan con las

demás ciencias, las matemáticas y la filosofía.

La física no es sólo una ciencia teórica; es también una ciencia experimental. Como toda ciencia, busca

que sus conclusiones puedan ser verificables mediante experimentos y que la teoría pueda realizar

predicciones de experimentos futuros. Dada la amplitud del campo de estudio de la física, así como su

desarrollo histórico en relación a otras ciencias, se la puede considerar la ciencia fundamental o central,

ya que incluye dentro de su campo de estudio a la química, la biología y la electrónica, además de

explicar sus fenómenos.

La física, en su intento de describir los fenómenos naturales con exactitud y veracidad, ha llegado a

límites impensables: el conocimiento actual abarca la descripción de partículas

fundamentales microscópicas, el nacimiento de las estrellas en el universo e incluso conocer con una

gran probabilidad lo que aconteció en los primeros instantes del nacimiento de nuestro universo, por

citar unos pocos campos.

Esta tarea comenzó hace más de dos mil años con los primeros trabajos de filósofos griegos

como Demócrito, Eratóstenes, Aristarco, Epicuro o Aristóteles, y fue continuada después

Page 33: Trabajo de Yuo

porcientíficos como Galileo Galilei, Isaac Newton, Leonhard Euler, Joseph-Louis de Lagrange, Michael

Faraday, William Rowan Hamilton, Rudolf Clausius, James Clerk Maxwell, Hendrik Antoon

Lorentz, Albert Einstein, Niels Bohr, Max Planck, Werner Heisenberg, Paul Dirac, Richard

Feynman y Stephen Hawking, entre muchos otros.

Índice

  [ocultar] 

1   Historia de la física

2   Teorías centrales

o 2.1   Mecánica clásica

o 2.2   Electromagnetismo

o 2.3   Relatividad

o 2.4   Termodinámica y mecánica estadística

o 2.5   Mecánica cuántica

3   Conceptos físicos fundamentales

4   Áreas de investigación

o 4.1   Física teórica

o 4.2   Materia condensada

o 4.3   Física atómica y molecular

o 4.4   Física de partículas o de altas energías y Física nuclear

o 4.5   Astrofísica

o 4.6   Biofísica

o 4.7   Resumen de las disciplinas físicas

5   Principales magnitudes físicas

6   Véase también

7   Referencias

8   Enlaces externos

Historia de la física

Artículo principal: Historia de la física

Page 34: Trabajo de Yuo

Dios no juega a los dados con el Universo.

Albert Einstein.

Einstein, deje de decirle a Dios lo que tiene que hacer con sus dados.

Niels Bohr.

Se conoce que la mayoría de las civilizaciones de la antigüedad trataron desde un principio de explicar

el funcionamiento de su entorno; miraban las estrellas y pensaban cómo ellas podían regir su mundo.

Esto llevó a muchas interpretaciones de carácter más filosófico que físico; no en vano en esos

momentos a la física se le llamaba filosofía natural. Muchos filósofos se encuentran en el desarrollo

primigenio de la física, como Aristóteles, Tales de Mileto o Demócrito, por ser los primeros en tratar de

buscar algún tipo de explicación a los fenómenos que les rodeaban.1 A pesar de que las teorías

descriptivas del universo que dejaron estos pensadores eran erradas, estas tuvieron validez por mucho

tiempo, casi dos mil años, en parte por la aceptación de la Iglesia católica de varios de sus preceptos,

como la teoría geocéntrica o las tesis de Aristóteles.2

Esta etapa, denominada oscurantismo en la ciencia, termina cuando Nicolás Copérnico, considerado

padre de la astronomía moderna, en 1543 recibe la primera copia de su De Revolutionibus Orbium

Coelestium. A pesar de que Copérnico fue el primero en formular teorías plausibles, es otro personaje al

cual se le considera el padre de la física como la conocemos ahora. Un catedrático de matemáticas de

la Universidad de Pisa a finales del siglo XVIcambiaría la historia de la ciencia, empleando por primera

vez experimentos para comprobar sus aseveraciones: Galileo Galilei. Mediante el uso deltelescopio para

observar el firmamento y sus trabajos en planos inclinados, Galileo empleó por primera vez el método

Page 35: Trabajo de Yuo

científico y llegó a conclusiones capaces de ser verificadas. A sus trabajos se les unieron grandes

contribuciones por parte de otros científicos como Johannes Kepler, Blaise Pascal yChristian Huygens.2

Posteriormente, en el siglo XVII, un científico inglés reúne las ideas de Galileo y Kepler en un solo

trabajo, unifica las ideas del movimiento celeste y las de los movimientos en la Tierra en lo que él

llamó gravedad. En 1687, Isaac Newton, en su obra Philosophiae Naturalis Principia Mathematica,

formuló los tres principios del movimiento y una cuarta Ley de la gravitación universal, que

transformaron por completo el mundo físico; todos los fenómenos podían ser vistos de una manera

mecánica.3

El trabajo de Newton en este campo perdura hasta la actualidad; todos los fenómenos macroscópicos

pueden ser descritos de acuerdo a sus tres leyes. Por eso durante el resto de ese siglo y el

posterior siglo XVIII todas las investigaciones se basaron en sus ideas. De ahí que se desarrollaron

otras disciplinas, como la termodinámica, la óptica, la mecánica de fluidos y la mecánica estadística. Los

conocidos trabajos de Daniel Bernoulli, Robert Boyley Robert Hooke, entre otros, pertenecen a esta

época.4

En el siglo XIX se producen avances fundamentales en la electricidad y el magnetismo, principalmente

de la mano de Charles-Augustin de Coulomb, Luigi Galvani, Michael Faraday y Georg Simon Ohm, que

culminaron en el trabajo de James Clerk Maxwell de 1855, que logró la unificación de ambas ramas en

el llamado electromagnetismo. Además, se producen los primeros descubrimientos sobre radiactividad y

el descubrimiento del electrón por parte deJoseph John Thomson en 1897.5

Durante el siglo XX, la física se desarrolló plenamente. En 1904, Hantarō Nagaoka había propuesto el

primer modelo del átomo,6 el cual fue confirmado en parte por Ernest Rutherford en 1911, aunque

ambos planteamientos serían después sustituidos por el modelo atómico de Bohr, de 1913. En 1905,

Einstein formuló la teoría de la relatividad especial, la cual coincide con las leyes de Newton cuando los

fenómenos se desarrollan a velocidades pequeñas comparadas con la velocidad de la luz.

En 1915 extendió la teoría de la relatividad especial, formulando la teoría de la relatividad general, la

cual sustituye a la Ley de gravitación de Newton y la comprende en los casos de masas pequeñas. Max

Planck, Albert Einstein, Niels Bohr y otros, desarrollaron la teoría cuántica, a fin de explicar resultados

experimentales anómalos sobre la radiación de los cuerpos. En 1911, Ernest Rutherford dedujo la

existencia de un núcleo atómico cargado positivamente, a partir de experiencias de dispersión de

partículas. En 1925 Werner Heisenberg, y en 1926 Erwin Schrödinger y Paul Adrien Maurice Dirac,

formularon la mecánica cuántica, la cual comprende las teorías cuánticas precedentes y suministra las

herramientas teóricas para la Física de la materia condensada.7

Posteriormente se formuló la teoría cuántica de campos, para extender la mecánica cuántica de acuerdo

con la Teoría de la Relatividad especial, alcanzando su forma moderna a finales de los40, gracias al

Page 36: Trabajo de Yuo

trabajo de Richard Feynman, Julian Schwinger, Tomonaga y Freeman Dyson, que formularon la teoría

de la electrodinámica cuántica. Esta teoría formó la base para el desarrollo de la física de partículas.

En 1954, Chen Ning Yang y Robert Mills desarrollaron las bases del modelo estándar. Este modelo se

completó en los años 1970, y con él fue posible predecir las propiedades de partículas no observadas

previamente, pero que fueron descubiertas sucesivamente, siendo la última de ellas el quark top.7

Los intentos de unificar las cuatro interacciones fundamentales han llevado a los físicos a nuevos

campos impensables. Las dos teorías más aceptadas, la mecánica cuántica y la relatividad general, que

son capaces de describir con gran exactitud el macro y el micromundo, parecen incompatibles cuando

se las quiere ver desde un mismo punto de vista. Por eso se han formulado nuevas teorías, como

la supergravedad o la teoría de cuerdas, donde se centran las investigaciones a inicios del siglo XXI.

Teorías centrales

La física, en su búsqueda de describir la verdad última de la naturaleza, tiene varias bifurcaciones, las

cuales podrían agruparse en cinco teorías principales: la mecánica clásica, que describe el movimiento

macroscópico; el electromagnetismo, que describe los fenómenos electromagnéticos como la luz;

la relatividad, formulada por Einstein, que describe el espacio-tiempo y lainteracción gravitatoria;

la termodinámica, que describe los fenómenos moleculares y de intercambio de calor; y, finalmente,

la mecánica cuántica, que describe el comportamiento del mundo atómico.

Mecánica clásica

Artículo principal: Mecánica clásica

Giróscopo, un dispositivo mecánico.

Page 37: Trabajo de Yuo

Se conoce como mecánica clásica a la descripción del movimiento de cuerpos macroscópicos a

velocidades muy pequeñas en comparación con la velocidad de la luz. Existen dos tipos de

formulaciones de esta mecánica, conocidas como mecánica newtoniana y mecánica analítica.

La mecánica newtoniana, como su nombre indica, lleva intrínsecos los preceptos de Newton. A partir de

las tres ecuaciones formuladas por Newton y mediante el cálculo diferencial e integral, se llega a una

muy exacta aproximación de los fenómenos físicos. Esta formulación también es conocida como

mecánica vectorial, y es debido a que a varias magnitudes se les debe definir su vector en un sistema

de referencia inercial privilegiado.8

La mecánica analítica es una formulación matemática abstracta sobre la mecánica; nos permite

desligarnos de esos sistemas de referenciaprivilegiados y tener conceptos más generales al momento

de describir un movimiento con el uso del cálculo de variaciones. Existen dos formulaciones

equivalentes: la llamada mecánica lagrangiana es una reformulación de la mecánica realizada

por Joseph Louis Lagrange que se basa en la ahora llamada ecuación de Euler-Lagrange (ecuaciones

diferenciales de segundo orden) y el principio de mínima acción; la otra, llamada mecánica hamiltoniana,

es una reformulación más teórica basada en una funcional llamada hamiltoniano realizada por William

Hamilton. En última instancia las dos son equivalentes.8

En la mecánica clásica en general se tienen tres aspectos invariantes: el tiempo es absoluto, la

naturaleza realiza de forma espontánea la mínima acción y la concepción de un universo determinado.

Electromagnetismo

Artículo principal: Electromagnetismo

Véase también: Óptica

Magnetósfera terrestre.

El electromagnetismo describe la interacción de partículas cargadas con campos

eléctricos y magnéticos. Se puede dividir en electrostática, el estudio de las interacciones

entre cargas en reposo, y la electrodinámica, el estudio de las interacciones entre cargas en movimiento

Page 38: Trabajo de Yuo

y la radiación. La teoría clásica del electromagnetismo se basa en la fuerza de Lorentz y en

las ecuaciones de Maxwell.

La electrostática es el estudio de los fenómenos asociados a los cuerpos cargados en reposo. Como se

describe por la ley de Coulomb, estos cuerpos ejercen fuerzas entre sí. Su comportamiento se puede

analizar en términos de la idea de un campo eléctrico que rodea cualquier cuerpo cargado, de manera

que otro cuerpo cargado colocado dentro del campo estará sujeto a una fuerza proporcional a la

magnitud de su carga y de la magnitud del campo en su ubicación. El que la fuerza sea atractiva o

repulsiva depende de la polaridad de la carga. La electrostática tiene muchas aplicaciones, que van

desde el análisis de fenómenos como tormentas eléctricas hasta el estudio del comportamiento de

los tubos electrónicos.

La electrodinámica es el estudio de los fenómenos asociados a los cuerpos cargados en movimiento y a

los campos eléctricos y magnéticos variables. Dado que una carga en movimiento produce un campo

magnético, la electrodinámica se refiere a efectos tales como el magnetismo, la radiación

electromagnética, y la inducción electromagnética, incluyendo las aplicaciones prácticas, tales como

el generador eléctrico y el motor eléctrico. Esta área de la electrodinámica, conocida como

electrodinámica clásica, fue sistemáticamente explicada por James Clerk Maxwell, y las ecuaciones de

Maxwell describen los fenómenos de esta área con gran generalidad. Una novedad desarrollada más

reciente es la electrodinámica cuántica, que incorpora las leyes de la teoría cuántica a fin de explicar la

interacción de la radiación electromagnética con la materia. Paul Dirac, Heisenberg y Wolfgang

Pauli fueron pioneros en la formulación de la electrodinámica cuántica. La electrodinámica es

inherentemente relativista y da unas correcciones que se introducen en la descripción de los

movimientos de las partículas cargadas cuando sus velocidades se acercan a la velocidad de la luz. Se

aplica a los fenómenos involucrados con aceleradores de partículas y con tubos electrónicos

funcionando a altas tensiones y corrientes.

El electromagnetismo abarca diversos fenómenos del mundo real como por ejemplo, la luz. La luz es

un campo electromagnético oscilante que se irradia desde partículas cargadas aceleradas. Aparte de la

gravedad, la mayoría de las fuerzas en la experiencia cotidiana son consecuencia de

electromagnetismo.

Los principios del electromagnetismo encuentran aplicaciones en diversas disciplinas afines, tales como

las microondas, antenas, máquinas eléctricas, comunicaciones

por satélite,bioelectromagnetismo, plasmas, investigación nuclear, la fibra óptica, la interferencia y la

compatibilidad electromagnéticas, la conversión de energía electromecánica, la meteorología por radar,

y la observación remota. Los dispositivos electromagnéticos

Page 39: Trabajo de Yuo

incluyen transformadores, relés, radio / TV, teléfonos, motores eléctricos, líneas de transmisión, guías

de onda, fibras ópticas yláseres.

Espectro electromagnético.

Relatividad

Artículo principal: Teoría de la relatividad

Dibujo artístico acerca de una prueba realizada con alta precisión por la sondaCassini al enviar señales a la tierra y

al describir la trayectoria predicha.

La relatividad es la teoría formulada principalmente por Albert Einstein a principios del siglo XX, y se

divide en dos cuerpos de investigación: larelatividad especial y la relatividad general.

Page 40: Trabajo de Yuo

En la teoría de la relatividad especial, Einstein, Lorentz y Minkowski, entre otros, unificaron los

conceptos de espacio y tiempo, en un ramado tetradimensional al que se le denominó espacio-tiempo.

La relatividad especial fue una teoría revolucionaria para su época, con la que el tiempo absoluto de

Newton quedó relegado y conceptos como la invariabilidad en la velocidad de la luz, la dilatación del

tiempo, la contracción de la longitud y la equivalencia entre masa y energía fueron introducidos.

Además, con las formulaciones de la relatividad especial, las leyes de la física son invariantes en todos

los sistemas de referencia inerciales; como consecuencia matemática, se encuentra como límite

superior de velocidad a la de la luz y se elimina la causalidad determinista que tenía la física hasta

entonces. Hay que indicar que las leyes del movimiento de Newton son un caso particular de esta teoría

donde la masa, al viajar a velocidades muy pequeñas, no experimenta variación alguna en longitud ni se

transforma en energía, y al tiempo se le puede considerar absoluto.

Por otro lado, la relatividad general estudia la interacción gravitatoria como una deformación en la

geometría del espacio-tiempo. En esta teoría se introducen los conceptos de la curvatura del espacio-

tiempo como la causa de la interacción gravitatoria, el principio de equivalencia que dice que para todos

los observadores locales inerciales las leyes de la relatividad especial son invariantes y la introducción

del movimiento de un partícula por líneasgeodésicas. La relatividad general no es la única teoría que

describe la atracción gravitatoria, pero es la que más datos relevantes comprobables ha encontrado.

Anteriormente, a la interacción gravitatoria se la describía matemáticamente por medio de una

distribución de masas, pero en esta teoría no solo la masa percibe esta interacción, sino también

la energía, mediante la curvatura del espacio-tiempo, y es por eso que se necesita otro lenguaje

matemático para poder describirla, el cálculo tensorial. Muchos fenómenos, como la curvatura de la luz

por acción de la gravedad y la desviación en laórbita de Mercurio, son perfectamente predichos por esta

formulación. La relatividad general también abrió otro campo de investigación en la física, conocido

como cosmología, y es ampliamente utilizado en la astrofísica.9

Termodinámica y mecánica estadística

Artículos principales: Termodinámica y Mecánica Estadística.

Page 41: Trabajo de Yuo

Transferencia de calor por convección.

La termodinámica trata los procesos de transferencia de calor, que es una de las formas de energía, y

cómo se puede realizar un trabajo con ella. En esta área se describe cómo la materia en cualquiera de

sus fases (sólido, líquido, gaseoso) va transformándose. Desde un punto de vista macroscópico de la

materia, se estudia como ésta reacciona a cambios en su volumen, presión y temperatura, entre otras

magnitudes. La termodinámica se basa en cuatro leyes principales: el equilibrio termodinámico (o ley

cero), el principio de conservación de la energía (primera ley), el aumento temporal de

la entropía (segunda ley) y la imposibilidad del cero absoluto (tercera ley).10

Una consecuencia de la termodinámica es lo que hoy se conoce como mecánica estadística. Esta rama

estudia, al igual que la termodinámica, los procesos de transferencia de calor, pero, al contrario a la

anterior, desde un punto de vista molecular. La materia, como se conoce, está compuesta por

moléculas, y el conocer el comportamiento de una sola de sus moléculas nos lleva a medidas erróneas.

Es por eso que se debe tratar como un conjunto de elementos caóticos o aleatorios, y se utiliza el

lenguaje estadístico y consideraciones mecánicas para describir comportamientos macroscópicos de

este conjunto molecular microscópico.11

Mecánica cuántica

Artículo principal: Mecánica cuántica

Esquema de una función de onda monoelectrónica u orbital en tres dimensiones.

La mecánica cuántica es la rama de la física que trata los sistemas atómicos y subatómicos, y sus

interacciones con la radiación electromagnética, en términos de cantidades observables. Se basa en la

observación de que todas las formas de energía se liberan en unidades discretas o paquetes

llamados cuantos. Sorprendentemente, la teoría cuántica sólo permite normalmente

cálculos probabilísticos o estadísticos de las características observadas de las partículas elementales,

entendidos en términos de funciones de onda. La ecuación de Schrödinger desempeña el papel en la

Page 42: Trabajo de Yuo

mecánica cuántica que las leyes de Newton y la conservación de la energía hacen en la mecánica

clásica. Es decir, la predicción del comportamiento futuro de un sistema dinámico, y es una ecuación de

onda en términos de una función de onda la que predice analíticamente la probabilidad precisa de los

eventos o resultados.

En teorías anteriores de la física clásica, la energía era tratada únicamente como un fenómeno continuo,

en tanto que la materia se supone que ocupa una región muy concreta del espacio y que se mueve de

manera continua. Según la teoría cuántica, la energía se emite y se absorbe en cantidades discretas y

minúsculas. Un paquete individual de energía, llamado cuanto, en algunas situaciones se comporta

como una partícula de materia. Por otro lado, se encontró que las partículas exponen algunas

propiedades ondulatorias cuando están en movimiento y ya no son vistas como localizadas en una

región determinada, sino más bien extendidas en cierta medida. La luz u otra radiación emitida o

absorbida por un átomo sólo tiene ciertasfrecuencias (o longitudes de onda), como puede verse en

la línea del espectro asociado al elemento químico representado por tal átomo. La teoría cuántica

demuestra que tales frecuencias corresponden a niveles definidos de los cuantos de luz, o fotones, y es

el resultado del hecho de que los electrones del átomo sólo pueden tener ciertos valores de energía

permitidos. Cuando un electrón pasa de un nivel permitido a otro, una cantidad de energía es emitida o

absorbida, cuya frecuencia es directamente proporcional a la diferencia de energía entre los dos niveles.

Esquema de un orbital en dos dimensiones.

El formalismo de la mecánica cuántica se desarrolló durante la década de 1920. En 1924, Louis de

Broglie propuso que, al igual que las ondas de luz presentan propiedades de partículas, como ocurre en

el efecto fotoeléctrico, las partículas, a su vez, también presentan propiedades ondulatorias. Dos

formulaciones diferentes de la mecánica cuántica se presentaron después de la sugerencia de Broglie.

En 1926, la mecánica ondulatoria de Erwin Schrödinger implica la utilización de una entidad matemática,

Page 43: Trabajo de Yuo

la función de onda, que está relacionada con la probabilidad de encontrar una partícula en un punto

dado en el espacio. En 1925, la mecánica matricial de Werner Heisenberg no hace mención alguna de

las funciones de onda o conceptos similares, pero ha demostrado ser matemáticamente equivalente a la

teoría de Schrödinger. Un descubrimiento importante de la teoría cuántica es elprincipio de

incertidumbre, enunciado por Heisenberg en 1927, que pone un límite teórico absoluto en la precisión de

ciertas mediciones. Como resultado de ello, la asunción clásica de los científicos de que el estado físico

de un sistema podría medirse exactamente y utilizarse para predecir los estados futuros tuvo que ser

abandonada. Esto supuso una revolución filosófica y dio pie a numerosas discusiones entre los más

grandes físicos de la época.

La mecánica cuántica se combinó con la teoría de la relatividad en la formulación de Paul Dirac de 1928,

lo que, además, predijo la existencia deantipartículas. Otros desarrollos de la teoría incluyen la

estadística cuántica, presentada en una forma por Einstein y Bose (la estadística de Bose-Einstein) y en

otra forma por Dirac y Enrico Fermi (la estadística de Fermi-Dirac), la electrodinámica cuántica,

interesada en la interacción entre partículas cargadas y los campos electromagnéticos, su

generalización, la teoría cuántica de campos y la electrónica cuántica.

El descubrimiento de la mecánica cuántica a principios del siglo XX revolucionó la física, y la mecánica

cuántica es fundamental para la mayoría de las áreas de la investigación actual.

Conceptos físicos fundamentales

Artículo principal: Anexo:Conceptos físicos fundamentales

En general un concepto físico es interpretable sólo en virtud de la teoría física donde aparece. Así la

descripción clásica de un gas o un fluido recurre al concepto de medio continuo aún cuando en realidad

la materia está formada por átomos discretos, eso no impide que el concepto de medio continuo en el

contexto de aplicación de la mecánica de fluidos o la mecánica de sólidos deformables no sea útil.

Igualmente la mecánica newtoniana trata el campo gravitatorio como un campo de fuerzas, pero por otra

parte la teoría de la relatividad general considera que no existen genuinamente fuerzas gravitatorias sino

que los fenómenos gravitatorios son una manifestación de la curvatura del espacio-tiempo.

Si se examina una lista larga de conceptos físicos rápidamente se aprecia que muchos de ellos sólo

tienen sentido o son definibles con todo rigor en el contexto de una teoría concreta y por tanto no son

conceptos fundamentales que deban aparecer en cualquier descripción física del universo. Sin embargo,

un conjunto reducido de conceptos físicos aparecen tanto en la descripción de la física clásica, como en

la descripción de la física relativista y la de la mecánica cuántica. Estos conceptos físicos que parecen

necesarios en cualquier teoría física suficientemente amplia son los llamados conceptos físicos

fundamentales, una lista no exhaustiva de los mismos podría ser:

Page 44: Trabajo de Yuo

Conceptos fundamentales de la física

Magnitudes físicas · Energía · Energía cinética · Momentum · Momentum angular · Masa · Carga eléctrica · Entropía

Tipos de entidades físicas: Materia · partícula · campo · onda · espacio-tiempo · observador · Espacio · Tiempo · Posición

Construcciones teóricas fundamentales: Lagrangiano · Acción · Ecuaciones de Euler-Lagrange · Ecuación de movimiento · Estado físico · Ley de conservación

Áreas de investigación

Física teórica

Artículo principal: Física teórica

Esquema de la teoría de cuerdas.

La cultura de la investigación en física en los últimos tiempos se ha especializado tanto que ha dado

lugar a una separación de los físicos que se dedican a la teoría y otros que se dedican a los

experimentos. Los teóricos trabajan en la búsqueda de modelos matemáticos que expliquen los

resultados experimentales y que ayuden a predecir resultados futuros. Así pues, teoría y experimentos

están relacionados íntimamente. El progreso en física a menudo ocurre cuando un experimento

encuentra un resultado que no se puede explicar con las teorías actuales, por lo que hay que buscar un

nuevo enfoque conceptual para resolver el problema.

La física teórica está muy relacionada con las matemáticas, ya que ésta suministra el lenguaje usado en

el desarrollo de las teorías físicas. Los teóricos confían en el cálculo diferencial e integral, el análisis

Page 45: Trabajo de Yuo

numérico y en simulaciones por ordenador para validar y probar sus modelos físicos. Los campos

de física computacional y matemática son áreas de investigación activas.

Los teóricos pueden concebir conceptos tales como universos paralelos, espacios multidimensionales

o minúsculas cuerdas que vibran o la teoría del todo, y a partir de ahí, realizar hipótesis físicas.

Materia condensada

Artículo principal: Materia condensada

Efecto Meissner, un ejemplo desuperconductividad.

La física de la materia condensada se ocupa de las propiedades físicas macroscópicas de la materia,

tales como la densidad, la temperatura, la dureza, o el color de un material. Los materiales consisten en

un gran número de átomos o moléculas que interactúan entre ellos, por lo que están "condensados", a

diferencia de estar libres sin interactuar. La física de la materia condensada busca hacer relaciones

entre las propiedades macroscópicas, que se pueden medir, y el comportamiento de sus constituyentes

a nivel microscópico o atómico y así comprender mejor las propiedades de los materiales.

Las fases "condensadas" más comunes son sólidos y líquidos, que surgen del enlace químico entre los

átomos, debido a la interacción electromagnética. Fases más exóticas son los superfluidos,

los condensados de Bose-Einstein encontrados en ciertos sistemas atómicos a muy bajas temperaturas,

la fase superconductora de los electrones de conducción de ciertos materiales, y las

fases ferromagnética y antiferromagnética de los espines en las redes atómicas.

La física de la materia condensada es el campo de la física contemporánea más extenso y que involucra

a un mayor número de físicos. Históricamente, la física de la materia condensada surgió de la física de

estado sólido, que se considera en la actualidad uno de sus principales subcampos. La expresión física

de la materia condensada aparentemente fue acuñada por Philip Anderson cuando renombró en 1967

su grupo de investigación, anteriormente llamado de teoría del estado sólido. La física de la materia

Page 46: Trabajo de Yuo

condensada tiene una gran superposición con la química, la ciencia de materiales, la nanotecnología y

laingeniería.

Física atómica y molecular

Artículos principales: Física atómica y Física molecular.

Estructura del diamante.

La física atómica y molecular se centran en el estudio de las interacciones materia-materia y luz-materia

en la escala de átomos individuales o estructuras que contienen unos pocos átomos. Ambas áreas se

agrupan debido a su interrelación, la similitud de los métodos utilizados, así como el carácter común de

las escalas de energía relevantes a sus investigaciones. A su vez, ambas incluyen tratamientos tanto

clásicos como cuánticos, ya que pueden tratar sus problemas desde puntos de vista microscópicos y

macroscópicos.

La investigación actual en física atómica se centra en actividades tales como el enfriamiento y captura

de átomos e iones, lo cual es interesante para eliminar "ruido" en las medidas y evitar imprecisiones a la

hora de realizar otros experimentos o medidas (por ejemplo, en los relojes atómicos), aumentar la

precisión de las mediciones de constantes físicas fundamentales, lo cual ayuda a validar otras teorías

como la relatividad o el modelo estándar, medir los efectos de correlación electrónica en la estructura y

dinámica atómica, y la medida y comprensión del comportamiento colectivo de los átomos de gases que

interactúan débilmente (por ejemplo, en un condensado de Bose-Einstein de pocos átomos).

La física molecular se centra en estructuras moleculares y sus interacciones con la materia y con la luz.

Física de partículas o de altas energías y Física nuclear

Artículo principal: Física de partículas

Page 47: Trabajo de Yuo

Ilustración de una desintegración alfa.

La física de partículas es la rama de la física que estudia los componentes elementales de la materia y

las interacciones entre ellos como si éstas fueran partículas. Es llamada también física de altas

energías, pues muchas de las partículas elementales no se encuentran en la naturaleza y es necesario

producirlas en colisiones de alta energía entre otras partículas, como se hace en los aceleradores de

partículas. Los principales centros de estudio sobre partículas son el Laboratorio Nacional Fermi

o Fermilab, en Estados Unidos, y el Centro Europeo para la Investigación Nuclear o CERN, en la

frontera entre Suiza y Francia. En estos laboratorios lo que se logra es obtener energías similares a las

que se cree existieron en el Big Bang, y así se intenta tener cada vez más pruebas del origen del

universo.12

En la actualidad, las partículas elementales se clasifican siguiendo el llamado Modelo Estándar en dos

grandes grupos: bosones y fermiones. Los bosones son las partículas que interactúan con la materia y

los fermiones son las partículas constituyentes de la materia. En el modelo estándar se explica cómo

las interacciones fundamentales en forma de partículas (bosones) interactúan con las partículas de

materia (fermiones). Así, elelectromagnetismo tiene su partícula llamada fotón, la interacción nuclear

fuerte tiene al gluón, la interacción nuclear débil a los bosones W y Z y la gravedad a una partícula

hipotética llamada gravitón. Entre los fermiones hay más variedad; se encuentran dos tipos:

los leptones y los quarks. En conjunto, el modelo estándar contiene 24 partículas fundamentales que

constituyen la materia (12 pares de partículas/anti-partículas) junto con tres familias de bosones de

gauge responsables de transportar las interacciones.13

La Física Nuclear es el campo de la Física que estudia los constituyentes del núcleo atómico y sus

interacciones. Las aplicaciones más conocidas de la física nuclear son la tecnología de generación de

energía y armamento, pero el campo ha dado lugar a aplicaciones en diversos campos, incluyendo

medicina nuclear e imágenes por resonancia magnética, ingeniería de implantación de iones en

materiales y datación por radiocarbono en geología y arqueología.

Page 48: Trabajo de Yuo

Astrofísica

Artículos principales: Astrofísica y Astronomía.

Ilustración de cómo podría verse unagujero negro supermasivo.

La astrofísica y la astronomía son ciencias que aplican las teorías y métodos de otras ramas de la física

al estudio de los objetos que componen nuestro variado universo, tales

como estrellas, planetas, galaxias y agujeros negros. La astronomía se centra en la comprensión de los

movimientos de los objetos, mientras que, grosso modo, la astrofísica busca explicar su origen, su

evolución y su comportamiento. Actualmente los términos astrofísica y astronomía se suelen usar

indistintamente para referirse al estudio del universo.

Esta área, junto a la física de partículas, es una de las áreas más estudiadas y más apasionantes del

mundo contemporáneo de la física. Desde que el telescopio espacial Hubble nos brindó detallada

información de los más remotos confines del universo, los físicos pudieron tener una visión más objetiva

de lo que hasta ese momento eran solo teorías.14

Debido a que la astrofísica es un campo muy amplio, los astrofísicos aplican normalmente muchas

disciplinas de la física, incluida la mecánica, el electromagnetismo, la mecánica estadística, la

termodinámica, la mecánica cuántica, la relatividad, la física nuclear y de partículas, y la física atómica y

molecular. Además, la astrofísica está íntimamente vinculada con la cosmología, que es el área que

pretende describir el origen del universo.15

Biofísica

Artículo principal: Biofísica

Page 49: Trabajo de Yuo

La biofísica podría describir físicamente lo que ocurre en nuestro cerebro.

La biofísica es un área interdisciplinaria que estudia la biología aplicando los principios generales de la

física. Al aplicar el carácter probabilístico de lamecánica cuántica a sistemas biológicos, obtenemos

métodos puramente físicos para la explicación de propiedades biológicas. Se puede decir que el

intercambio de conocimientos es únicamente en dirección a la biología, ya que ésta se ha ido

enriqueciendo de los conceptos físicos y no viceversa.16

Esta área está en constante crecimiento. Se estima que durante los inicios del siglo XXI cada vez la

confluencia de físicos, biólogos y químicos a los mismos laboratorios se incrementará. Los estudios

en neurociencia, por ejemplo, han aumentado y cada vez han tenido mayores frutos desde que se

comenzó a implementar las leyes del electromagnetismo, la óptica y la física molecular al estudio de

las neuronas.17