jump to navigation

LA ESTADISTICA octubre 28, 2009

Posted by elprofedidier in Uncategorized.
add a comment

La estadística es una ciencia con base matemática referente a la recolección, análisis e interpretación de datos, que busca explicar condiciones regulares en fenómenos de tipo aleatorio.50985-07

Distribución normal.

Es transversal a una amplia variedad de disciplinas, desde la física hasta las ciencias sociales, desde las ciencias de la salud hasta el control de calidad. Se usa para la toma de decisiones en áreas de negocios o instituciones gubernamentales.

La estadística se divide en dos ramas:

Ambas ramas (descriptiva e inferencial) comprenden la estadística aplicada. Hay también una disciplina llamada estadística matemática, la cual se refiere a las bases teóricas de la materia. La palabra «estadísticas» también se refiere al resultado de aplicar un algoritmo estadístico a un conjunto de datos, como en estadísticas económicas, estadísticas criminales, etc.

29338

Etimología

La palabra «estadística» procede del latín statísticum collégium (‘consejo de Estado’) y de su derivado italiano statista (‘hombre de Estado’ o ‘político’). El término alemán statistik, que fue primeramente introducido por Gottfried Achenwall (1749), designaba originalmente el análisis de datos del Estado, es decir, «la ciencia del Estado» (también llamada «aritmética política» de su traducción directa del inglés). No fue hasta el siglo XIX cuando el término «estadística» adquirió el significado de recolectar y clasificar datos. Este concepto fue introducido por el inglés John Sinclair.

En su origen, por tanto, la estadística estuvo asociada a datos, a ser utilizados por el gobierno y cuerpos administrativos (a menudo centralizados). La colección de datos acerca de estados y localidades continúa ampliamente a través de los servicios de estadística nacionales e internacionales. En particular, los censos suministran información regular acerca de la población.nosaben(Forges)2007

Desde los comienzos de la civilización han existido maneras sencillas de estadística, pues ya se utilizaban representaciones gráficas y otros símbolos en pieles, rocas, palos de madera y paredes de cuevas para contar el número de personas, animales o ciertas cosas. Hacia el año 3000 a. C. los babilónicos usaban ya pequeñas tablillas de arcilla para recopilar datos en tablas sobre la producción agrícola y de los géneros vendidos o cambiados mediante trueque. Los egipcios analizaban los datos de la población y la renta del país mucho antes de construir las pirámides en el siglo XI a. C. Los libros bíblicos de Números y Crónicas incluyen, en algunas partes, trabajos de estadística. El primero contiene dos censos de la población de Israel y el segundo describe el bienestar material de las diversas tribus judías. En China existían registros numéricos similares con anterioridad al año 2000 a. C. Los griegos clásicos realizaban censos cuya información se utilizaba hacia el 594 a. C. para cobrar impuestos.

Orígenes en probabilidad

Los métodos estadístico-matemáticos emergieron desde la teoría de probabilidad, la cual data desde la correspondencia entre Blaise Pascal y Pierre de Fermat (1654). Christian Huygens (1657) da el primer tratamiento científico que se conoce a la materia. El Ars coniectandi (póstumo, 1713) de Jakob Bernoulli y la Doctrina de posibilidades (1718) de Abraham de Moivre estudiaron la materia como una rama de las matemáticas.[1] En la era moderna, el trabajo de Kolmogórov ha sido un pilar en la formulación del modelo fundamental de la Teoría de Probabilidades, el cual es usado a través de la estadística.

La teoría de errores se puede remontar a la Ópera miscellánea (póstuma, 1722) de Roger Cotes y al trabajo preparado por Thomas Simpson en 1755 (impreso en 1756) el cual aplica por primera vez la teoría de la discusión de errores de observación. La reimpresión (1757) de este trabajo incluye el axioma de que errores positivos y negativos son igualmente probables y que hay unos ciertos límites asignables dentro de los cuales se encuentran todos los errores; se describen errores continuos y una curva de probabilidad.

Pierre-Simon Laplace (1774) hace el primer intento de deducir una regla para la combinación de observaciones desde los principios de la teoría de probabilidades. Laplace representó la ley de probabilidades de errores mediante una curva y dedujo una fórmula para la media de tres observaciones. También, en 1871, obtiene la fórmula para la ley de facilidad del error (término introducido por Lagrange, 1744) pero con ecuaciones inmanejables. Daniel Bernoulli (1778) introduce el principio del máximo producto de las probabilidades de un sistema de errores concurrentes.

El método de mínimos cuadrados, el cual fue usado para minimizar los errores en mediciones, fue publicado independientemente por Adrien-Marie Legendre (1805), Robert Adrain (1808), y Carl Friedrich Gauss (1809). Gauss había usado el método en su famosa predicción de la localización del planeta enano Ceres en 1801. Pruebas adicionales fueron escritas por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W.F. Donkin (1844, 1856), John Herschel (1850) y Morgan Crofton (1870). Otros contribuidores fueron Ellis (1844), Augustus De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters para r, el probable error de una observación simple es bien conocido.

1518e15chistes06gpm4El siglo XIX incluye autores como Laplace, Silvestre Lacroix (1816), Littrow (1833), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion y Karl Pearson. Augustus De Morgan y George Boole mejoraron la presentación de la teoría. Adolphe Quetelet (1796-1874), fue otro importante fundador de la estadística y quien introdujo la noción del «hombre promedio» (l’homme moyen) como un medio de entender los fenómenos sociales complejos tales como tasas de criminalidad, tasas de matrimonio o tasas de suicidios.

Estado actual

Durante el siglo XX, la creación de instrumentos precisos para asuntos de salud pública (epidemiología, bioestadística, etc.) y propósitos económicos y sociales (tasa de desempleo, econometría, etc.) necesitó de avances sustanciales en las prácticas estadísticas.

Hoy el uso de la estadística se ha extendido más allá de sus orígenes como un servicio al Estado o al gobierno. Personas y organizaciones usan la estadística para entender datos y tomar decisiones en ciencias naturales y sociales, medicina, negocios y otras áreas. La estadística es entendida generalmente no como un sub-área de las matemáticas sino como una ciencia diferente «aliada». Muchas universidades tienen departamentos académicos de matemáticas y estadística separadamente. La estadística se enseña en departamentos tan diversos como psicología, educación y salud pública.

Regresión lineal – Gráficos de dispersión en estadística.

Al aplicar la estadística a un problema científico, industrial o social, se comienza con un proceso o población a ser estudiado. Esta puede ser la población de un país, de granos cristalizados en una roca o de bienes manufacturados por una fábrica en particular durante un periodo dado. También podría ser un proceso observado en varios instantes y los datos recogidos de esta manera constituyen una serie de tiempo.

Por razones prácticas, en lugar de compilar datos de una población entera, usualmente se estudia un subconjunto seleccionado de la población, llamado muestra. Datos acerca de la muestra son recogidos de manera observacional o experimental. Los datos son entonces analizados estadísticamente lo cual sigue dos propósitos: descripción e inferencia.

proporciEl concepto de correlación es particularmente valioso. Análisis estadísticos de un conjunto de datos puede revelar que dos variables (esto es, dos propiedades de la población bajo consideración) tienden a variar conjuntamente, como si hubiera una conexión entre ellas. Por ejemplo un estudio del ingreso anual y la edad de muerte entre personas podría resultar en que personas pobres tienden a tener vidas más cortas que personas de mayor ingreso. Las dos variables se dicen a ser correlacionadas. Sin embargo, no se pude inferir inmediatamente la existencia de una relación de causalidad entre las dos variables. El fenómeno correlacionado podría ser la causa de un tercero, previamente no considerado, llamado variable confundida.

Si la muestra es representativa de la población, inferencias y conclusiones hechas en la muestra pueden ser extendidas a la población completa. Un problema mayor es el de determinar que tan representativa es la muestra extraída. La estadística ofrece medidas para estimar y corregir por aleatoriedad en la muestra y en el proceso de recolección de los datos, así como métodos para diseñar experimentos robustos como primera medida, ver diseño experimental.estadistica2

El concepto matemático fundamental empleado para entender la aleatoriedad es el de probabilidad. La estadística matemática (también llamada teoría estadística) es la rama de las matemáticas aplicadas que usa la teoría de probabilidades y el análisis matemático para examinar las bases teóricas de la estadística.

El uso de cualquier método estadístico es válido solo cuando el sistema o población bajo consideración satisface los supuestos matemáticos del método. El mal uso de la estadística puede producir serios errores en la descripción e interpretación, afectando las políticas sociales, la práctica médica y la calidad de estructuras tales como puentes y plantas de reacción nuclear.

Incluso cuando la estadística es correctamente aplicada, los resultados pueden ser difícilmente interpretados por un no experto. Por ejemplo, el significado estadístico de una tendencia en los datos, que mide el grado al cual la tendencia puede ser causada por una variación aleatoria en la muestra, puede no estar de acuerdo con el sentido intuitivo. El conjunto de habilidades estadísticas básicas (y el escepticismo) que una persona necesita para manejar información en el día a día se refiere como «cultura estadística».

Métodos estadísticos

Estudios experimentales y observacionales

Un objetivo común para un proyecto de investigación estadística es investigar la causalidad, y en particular extraer una conclusión en el efecto que algunos cambios en los valores de predictores o variables independientes tienen sobre una respuesta o variables dependientes. Hay dos grandes tipos de estudios estadísticos para estudiar causalidad: estudios experimentales y observacionales. En ambos tipos de estudios, el efecto de las diferencias de una variable independiente (o variables) en el comportamiento de una variable dependiente es observado. La diferencia entre los dos tipos es la forma en que el estudio es conducido. Cada uno de ellos puede ser muy efectivo.

Un estudio experimental implica tomar mediciones del sistema bajo estudio, manipular el sistema y luego tomar mediciones adicionales usando el mismo procedimiento para determinar si la manipulación ha modificado los valores de las mediciones. En contraste, un estudio observacional no necesita manipulación experimental. Por el contrario, los datos son recogidos y las correlaciones entre predictores y la respuesta son investigadas.

Un ejemplo de un estudio experimental es el famoso experimento de Hawthorne el cual pretendía probar cambios en el ambiente de trabajo en la planta Hawthorne de la Western Electric Company. Los investigadores estaban interesados en si al incrementar la iluminación en un ambiente de trabajo, la producción de los trabajadores aumentaba. Los investigadores primero midieron la productividad de la planta y luego modificaron la iluminación en un área de la planta para ver si cambios en la iluminación afectarían la productividad. La productividad mejoró bajo todas las condiciones experimentales. Sin embargo, el estudio fue muy criticado por errores en los procedimientos experimentales, específicamente la falta de un grupo control y seguimiento.

Un ejemplo de un estudio observacional es un estudio que explora la correlación entre fumar y el cáncer de pulmón. Este tipo de estudio normalmente usa una encuesta para recoger observaciones acerca del área de interés y luego produce un análisis estadístico. En este caso, los investigadores recogerían observaciones de fumadores y no fumadores y luego mirarían los casos de cáncer de pulmón en ambos grupos.

Los pasos básicos para un experimento son:

  • Planeamiento estadístico de la investigación, lo cual incluye encontrar fuentes de información, selección de material disponible en el área y consideraciones éticas para la investigación y el método propuesto. Se plantea un problema de estudio,
  • Diseñar el experimento concentrándose en el modelo y la interacción entre variables independientes y dependientes. Se realiza un muestreo consistente en la recolección de datos referentes al fenómeno o variable que deseamos estudiar. Se propone un modelo de probabilidad, cuyos parámetros se estiman mediante estadísticos a partir de los datos de muestreo. Sin embargo, se mantiene lo que se denominan «hipótesis sostenidas» (que no son sometidas a comprobación). Se valida el modelo comparándolo con lo que sucede en la realidad. Se utiliza métodos estadísticos conocidos como test de hipótesis o prueba de significación.
  • Se producen estadísticas descriptivas.
  • Inferencia estadística. Se llega a un consenso acerca de qué dicen las observaciones acerca del mundo que observamos.
  • Se utiliza el modelo validado para tomar decisiones o predecir acontecimientos futuros. Se produce un reporte final con los resultados del estudio.

Niveles de medición

Hay cuatro tipos de mediciones o escalas de medición en estadística. Los cuatro tipos de niveles de medición (nominal, ordinal, intervalo y razón) tienen diferentes grados de uso en la investigación estadística. Las medidas de razón, en donde un valor cero y distancias entre diferentes mediciones son definidas, dan la mayor flexibilidad en métodos estadísticos que pueden ser usados para analizar los datos. Las medidas de intervalo tienen distancias interpretables entre mediciones, pero un valor cero sin significado (como las mediciones de coeficiente intelectual o temperatura en grados Celsius). Las medidas ordinales tienen imprecisas diferencias entre valores consecutivos, pero un orden interpretable para sus valores. Las medidas nominales no tienen ningún rango interpretable entre sus valores.

La escala de medida nominal, puede considerarse la escala de nivel más bajo. Se trata de agrupar objetos en clases. La escala ordinal, por su parte, recurre a la propiedad de «orden» de los números. La escala de intervalos iguales está caracterizada por una unidad de medida común y constante. Es importante destacar que el punto cero en las escalas de intervalos iguales es arbitrario, y no refleja en ningún momento ausencia de la magnitud que estamos midiendo. Esta escala, además de poseer las características de la escala ordinal, permite determinar la magnitud de los intervalos (distancia) entre todos los elementos de la escala. La escala de coeficientes o Razones es el nivel de medida más elevado y se diferencia de las escalas de intervalos iguales únicamente por poseer un punto cero propio como origen; es decir que el valor cero de esta escala significa ausencia de la magnitud que estamos midiendo. Si se observa una carencia total de propiedad, se dispone de una unidad de medida para el efecto. A iguales diferencias entre los números asignados corresponden iguales diferencias en el grado de atributo presente en el objeto de estudio.

Técnicas estadísticas

Algunos tests y procedimientos para investigación de observaciones bien conocidos son:

Disciplinas especializadas

Algunos campos de investigación usan la estadística tan extensamente que tienen terminología especializada. Estas disciplinas incluyen:

La estadística es una herramienta básica en negocios y producción. Es usada para entender la variabilidad de sistemas de medición, control de procesos (como en control estadístico de procesos o SPC (CEP)), para compilar datos y para tomar decisiones. En estas aplicaciones es una herramienta clave, y probablemente la única herramienta disponible.

Computación estadística

El rápido y sostenido incremento en el poder de cálculo de la computación desde la segunda mitad del siglo XX ha tenido un sustancial impacto en la práctica de la ciencia estadística. Viejos modelos estadísticos fueron casi siempre de la clase de los modelos lineales. Ahora, complejos computadores junto con apropiados algoritmos numéricos, han causado un renacer del interés en modelos no lineales (especialmente redes neuronales y árboles de decisión) y la creación de nuevos tipos tales como modelos lineales generalizados y modelos multinivel.

El incremento en el poder computacional también ha llevado al crecimiento en popularidad de métodos intensivos computacionalmente basados en remuestreo, tales como tests de permutación y de bootstrap, mientras técnicas como el muestreo de Gibbs han hecho los métodos bayesianos más accesibles. La revolución en computadores tiene implicaciones en el futuro de la estadística, con un nuevo énfasis en estadísticas «experimentales» y «empíricas». Un gran número de paquetes estadísticos está ahora disponible para los investigadores. Los sistemas dinámicos y teoría del caos, desde hace una década, empezaron a interesar en la comunidad hispana, pues en la anglosajona de Estados Unidos estaba ya establecida la «conducta caótica en sistemas dinámicos no lineales» con 350 libros para 1997 y empezaban algunos trabajos en los campos de las ciencias sociales y en aplicaciones de la física. También se estaba contemplando su uso en analítica.

Críticas a la estadística

Hay una percepción general de que el conocimiento estadístico es intencionada y demasiado frecuentemente mal usado, encontrando maneras de interpretar los datos que sean favorables al presentador. Un dicho famoso, al parecer de Benjamin Disraeli,[2] es: «Hay tres tipos de mentiras: mentiras pequeñas, mentiras grandes y estadísticas». El popular libro How to lie with statistics (‘cómo mentir con las estadísticas’) de Darrell Huff discute muchos casos de mal uso de la estadística, con énfasis en gráficas malintencionadas. Al escoger (o rechazar o modificar) una cierta muestra, los resultados pueden ser manipulados; eliminando outliers por ejemplo. Este puede ser el resultado de fraudes o sesgos intencionales por parte del investigador. Lawrence Lowell (decano de la Universidad de Harvard) escribió en 1909 que las estadísticas, «como algunos pasteles, son buenas si se sabe quién las hizo y se está seguro de los ingredientes».

Algunos estudios contradicen resultados obtenidos previamente, y la población comienza a dudar en la veracidad de tales estudios. Se podría leer que un estudio dice (por ejemplo) que «hacer X reduce la presión sanguínea», seguido por un estudio que dice que «hacer X no afecta la presión sanguínea», seguido por otro que dice que «hacer X incrementa la presión sanguínea». A menudo los estudios se hacen siguiendo diferentes metodologías, o estudios en muestras pequeñas que prometen resultados maravillosos que no son obtenibles en estudios de mayor tamaño. Sin embargo, muchos lectores no notan tales diferencias, y los medios de comunicación simplifican la información alrededor del estudio y la desconfianza del público comienza a crecer.

Sin embargo, las críticas más fuertes vienen del hecho que la aproximación de pruebas de hipótesis, ampliamente usada en muchos casos requeridos por ley o reglamentación, obligan una hipótesis a ser ‘favorecida’ (la hipótesis nula), y puede también exagerar la importancia de pequeñas diferencias en estudios grandes. Una diferencia que es altamente significativa puede ser de ninguna significancia práctica.

En los campos de la psicología y la medicina, especialmente con respecto a la aprobación de nuevas drogas por la Food and Drug Administration, críticas de la aproximación de prueba de hipótesis se han incrementado en los años recientes. Una respuesta ha sido un gran énfasis en el p-valor en vez de simplemente reportar si la hipótesis fue rechazada al nivel de significancia α dado. De nuevo, sin embargo, esto resume la evidencia para un efecto pero no el tamaño del efecto. Una posibilidad es reportar intervalos de confianza, puesto que estos indican el tamaño del efecto y la incertidumbre. Esto ayuda a interpretar los resultados, como el intervalo de confianza para un α dado indicando simultáneamente la significancia estadística y el efecto de tamaño.

El p valor y los intervalos de confianza son basados en los mismos cálculos fundamentales como aquellos para las correspondientes pruebas de hipótesis. Los resultados son presentados en un formato más detallado, en lugar del si-o-no de las pruebas de hipótesis y con la misma metodología estadística.

Una muy diferente aproximación es el uso de métodos bayesianos. Esta aproximación ha sido, sin embargo, también criticada.

El fuerte deseo de ver buenas drogas aprobadas y el de ver drogas peligrosas o de poco uso siendo rechazadas crea tensiones y conflictos (errores tipo I y II en el lenguaje de pruebas de hipótesis).

Estadísticos famosos

 1479_notavida_190209

PREGUNTAS.

  1. EXPLICA  LA APLICACION DE LA ESTADISTICA EN LA PUBLICIDAD Y REALIZA UN EJEMPLO
  2. EXPLICA LA APLICACIÓN DE LA ESTADISTICA EN LA POLITICA Y REALIZA UN EJEMPLO
  3. EXPLICA LA UTILIZACION DE LA ESTADISTICA EN LAS CIENCIAS BIOLOGICAS Y REALIZA UN EJEMPLO
  4. EXPLICA LA UTILIZACION DE LA ESTADISTICA EN EL PERIODISMO Y REALIZA UN EJEMPLO
  5. EN CUANTAS RAMAS SE DIVIDE LA ESTADISTICA
  6. CONSULTA LA BIORAFIA DE UN ESTADISTICO FAMOSO Y EXPLICA CUAL FUE SU  APORTE A LA ESTADISTICA

agosto 30, 2009

Posted by elprofedidier in Uncategorized.
add a comment

julio 12, 2009

Posted by elprofedidier in Uncategorized.
add a comment

POR QUE ES NECESARIO APRENDER MATEMATICAS? junio 8, 2009

Posted by elprofedidier in Uncategorized.
1 comment so far

Se pueden avanzar argumentos en tres líneas distintas pero relacionadas, siguiendo los aportes de los autores citados:

  • porque forma parte del pensamiento humano;
  • porque es una obra, una construcción de la humanidad, y como tal se transmite a las nuevas generaciones;
  • y porque es una necesidad de la sociedad en que vivimos.

La matemática debería enseñarse en la escuela porque forma parte del pensamiento de toda persona de la misma manera que forman parte el dibujo o el deseo de representar objetos, personas, aspectos de la vida que la rodea en un papel. Es natural en los niños que disponen de lápices y papeles ponerse a dibujar, aun fuera de toda enseñanza; las tribus primitivas lo hicieron aun sin contar con esos elementos.

matematicas¿No es suficiente haber visto un alumno, una sola vez, ponerse a pensar y actuar sobre un dominio de cuestiones que estén a su nivel, para saber que el pensamiento matemático está latente en su espíritu? La imaginación y la lógica pertenecen a la esencia misma del pensamiento humano.

Lo importante en el aprendizaje de la matemática es la actividad intelectual del alumno, cuyas características tal como Piaget las ha descrito, son similares a aquellas que muestran los matemáticos en su actividad creadora: el pensamiento parte de un problema, plantea hipótesis, opera rectificaciones, hace transferencias, generalizaciones, rupturas, etc. para construir poco a poco, conceptos y, a través de esta construcción de conceptos, poder edificar sus propias estructuras intelectuales.

La respuesta es evidente, ¿con qué derecho se amputaría al pensamiento de alguien de su dimensión matemático por defecto de la enseñanza?

Una de las maneras más claras de confirmar estas afirmaciones es escuchar a las madres relatar los razonamientos lógico-matemáticos que realizan sus niños de corta edad… aun sin haber ido a la escuela.

purple-nurpleNo educar matemáticamente a un niño es mutilar, desfigurar su pensamiento, impedir que se desarrolle una parte importante de él. Hay que enseñar matemática a todos pero con una restricción fuerte: toda persona tiene el derecho de ser preservado de una matemática que haya perdido su razón de ser. Toda persona tiene derecho a entrar en el universo matemático, a aprender matemática sin pérdida del sentido que tiene, en la acepción más plena de la palabra.

Si se aceptan estas conclusiones, la matemática no debería ser una disciplina aparte, situada a un costado del pensamiento común, y que podría ser objeto de estudio solamente de algunos. Es, por decirlo así, una fase del pensamiento. No hay pensamientos concretos al lado de pensamientos abstractos. El pensamiento es conceptualizante por naturaleza y predispuesto a la matemática.

En relación con el segundo punto mencionado: porque es una obra, una construcción de la humanidad y como tal se transmite a las nuevas generaciones.

Como dice F. Savater1, “ser humano consiste en la vocación de compartir lo que ya sabemos entre todos, enseñando a los recién llegados al grupo cuanto deben conocer para hacerse socialmente válidos, pero el hecho de enseñar a nuestros semejantes y de aprender de nuestros semejantes es también importante para el establecimiento de nuestra humanidad. No somos iniciadores de nuestro linaje, aparecemos en un mundo donde ya está vigente la huella humana de mil modos y existe una tradición de técnicas, mitos y ritos de la que vamos a formar parte y en la que vamos también a formarnos”.

La matemática forma parte de ese legado cultural, es una construcción humana, es parte de la cultura de nuestra sociedad y es objeto de la indagación infantil desde muy temprana edad. El niño se formula preguntas, establece relaciones, cuya sistematización remite a los objetos de la matemática.

Por ejemplo, todos conocen niños de 4 o 5 años que antes del aprendizaje sistemático de la serie numérica en la escuela son capaces de recitar muchos números de la serie, a veces hasta 30 o 50. De memoria, se dirá… pero de memoria ¿a partir de qué? ¿De escuchar recitar la serie hasta el 30? ¿Cuántas veces tiene oportunidad un niño de escuchar recitar los números hasta el 30? Y si fuera sólo repetición, ¿por qué con mucha frecuencia los niños dicen: “diez y uno, diez y dos, diez y tres…”, nombres que nunca han escuchado?

Estos nombres “inventados” muestran un gran esfuerzo por explicarse el sistema de numeración que han ido la+importancia+de+las+matem%C3%A1ticasconstruyendo a partir del contacto con diversos números o algunas porciones de serie, pero casi nunca con la serie suficientemente completa y extendida. Si después del veinte siguen: veintiuno, veintidós, ¿por qué no seguirían, después del diez, diez y uno, diez y dos…? Los niños esperan que existan regularidades en la matemática. Y las hay… La serie numérica, tanto escrita como oral, aunque en forma diferente, muestra grandes regularidades, si bien también algunas excepciones. Descubrir las regularidades de la serie permitirá a los niños empezar a comprender el sistema numérico y entrar en el maravilloso mundo de los números, no reduciendo su aprendizaje a ir apropiándoselos al ritmo de una decena por semana como ocurre con frecuencia en la escuela.

Investigaciones didácticas como la de Lerner y Sadovsky muestran cómo los niños van aproximándose al conocimiento del sistema de numeración, qué tipo de relaciones establecen, a qué conceptualizaciones arriban, qué argumentos van elaborando para justificarlas…y sobre qué construcciones, propias de los niños, pueden apoyarse los docentes para organizar su tarea de sistematización.

También en Lengua, investigadores como Emilia Ferreiro han puesto en evidencia el trabajo cognitivo de los niños incluso previamente a toda enseñanza organizada por las instituciones educativas. Teniendo el conocimiento lingüístico del lenguaje hablado como saber previo, elaboran hipótesis y hacen anticipaciones que van confrontando con la realidad en contacto con hablantes o portadores de texto que los rodean. Muestran, por ejemplo, “que poseen un conocimiento de las reglas fonológicas, sintácticas y semánticas de su lengua absolutamente sorprendente. Un chico de 6 años sabe lo que es un verbo antes de conocer la palabra ‘verbo’. Si le decimos algo como ‘los patos rápido’ nos dirá ‘¿Qué? ¿Los patos nadan rápido?.’ Más aún, un chico de 3 años conoce la diferencia entre radical y desinencia verbal cuando construye formas verbales que no ha escuchado de los adultos, tales como ponió, poní, puniste. Sus ‘errores’ responden a una búsqueda de coherencia interna dentro del sistema de la lengua y no a una repetición ciega de lo escuchado en su entorno”.

Las construcciones personales que muestran y explicitan con alegría los niños en edades tempranas continúan en logicaedades más avanzadas; sin embargo, no es tan fácil detectarlas, por distintos motivos. Pero también en conocimientos matemáticos más avanzados los niños y jóvenes van elaborando explicaciones a preguntas que les plantea la enseñanza o se plantean a sí mismos.

Por ejemplo, alumnos que construyen un sistema diferente al Simela para la medición de longitudes a partir de las unidades de medida más usuales en la vida cotidiana, como el m y el cm. Por ejemplo, considerar que entre esas unidades se puede establecer una relación 1 a 100 y asignar en la escritura dos lugares para la representación escrita de los centímetros. De esta manera 3,5 m puede ser interpretado como 3m y 5 centímetros, ya que si fuera 50 cm, sería escrito como 3,50 m.

1Savater, Fernando (1997), El valor de educar, Ariel, España.
2Lerner, D. y Sadovsky, P. (1994), “El sistema de numeración. Un problema didáctico”, en Didáctica de Matemáticas. Aportes y reflexiones, Parra, C. y Saiz I., Paidós Educador, Buenos Aires.
3Ferreiro, Emilia (1975): Trastornos de aprendizaje producidos por la escuela. Conferencia pronunciada en Buenos Aires en el III Congreso Latinoamericano de Psiquiatría infantil, con el título: “Trastornos específicos del aprendizajes por desadecuación entre el desarrollo operatorio y el curricular”

LA MATEMATICA Y LAS ILUSIONES OPTICAS junio 3, 2009

Posted by elprofedidier in Uncategorized.
add a comment

efecto-ilusion-optica-3Para casi todos la visión es algo tan común que rara vez nos detenemos a pensar que percibir imágenes, objetos, colores, y profundidad es un proceso realmente complicado.

Desde hace aproximadamente 100 años, en particular durante los últimos 20, los científicos han hecho grandes avances para entender cómo es que vemos y percibimos las cosas. Los estudios que se han realizado sobre la visión y la percepción abarcan fundamentalmente el análisis de los procesos que se llevan a cabo en nuestros cerebros, pero también han ocupado a los matemáticos, en particular a los geómetras quienes han profundizado no sólo en el estudio de la perspectiva sino también en el desarrollo de formas geométricas que hace siglos se hubieran considerado como imposibles.

Las ilusiones ópticas, como las que a continuación vas a ver han sido un material muy importante para llevar a cabo estos estudios pues además de ser divertidas y poner a prueba nuestra percepción, desafían la intuición geométrica que tenemos y que proviene de la manera en como percibimos el mundo en el que vivimos.

Las matemáticas… junio 2, 2009

Posted by elprofedidier in Uncategorized.
add a comment

tangramLas matemáticas poseen no sólo la verdad, sino cierta belleza suprema. Una belleza fría y austera, como la de una escultura.

MIS NIÑOS DE 9ºA junio 1, 2009

Posted by elprofedidier in Uncategorized.
add a comment

11032009(005)11032009(007)11032009(004)

GRUPO 9ºA

GRUPO 9ºA

ENCUENTRO DE PROFES DEL NUCLEO 916 junio 1, 2009

Posted by elprofedidier in Uncategorized.
2 comments

29052009(062)

SON UNAS PERSONAS EXCELENTES!

SON UNAS PERSONAS EXCELENTES!

musica mayo 28, 2009

Posted by elprofedidier in Uncategorized.
add a comment

EL MEJOR VIDEO!!!