Química-física


 La química y la física se unieron y apareció la química física

química-física

El objetivo de este artículo es dar una visión general de lo que es la química-física y hablar un poco de cada una de las ramas de la química física. 

Como lo que se pretende es dar una visión general, aparecerán muchas referencias a otros artículos del blog, dónde aparecerán explicadas teorías, que este artículo no pretende explicar.

Hay momentos en lo que no es claro si lo que se estudia es química o física, de echo premios nobel de física los ganaron químicos y viceversa. A este momento de duda se le llama química-física. ¿Qué es el átomo química o física? ¿Por qué la termodinámica la estudian tanto los físicos como los químicos? ¿Por qué la electricidad aparece tanto en fenómenos físicos como en fenómenos químicos? Porque hay momentos en los que la física y la química se solapan, y es lo que se llama química-física.

La química-física se puede definir de muchas maneras:

  1. Parte de la química que tiene como objetivo principal investigar el funcionamiento de la naturaleza.
  2. Parte de la química que usa métodos físicos.
  3. Parte de la física que se preocupa de la química.

La química física alcanza su madurez en 1887 , cuándo se publica la primera revista dedicada a la química-física: Zeitschrift für physikalische chemistry, y varios científicos aceptan la importancia de la física en la química. Robert Boyle  en su libro The Sceptical Chemistry admite que el trabajo de físicos como Isaac Newton tuvieron influencias en la química. Robert Bunsen y Michael Faraday reconocieron que sus publicaciones fueron importantes para la química. Y esto hace que una física importante para la química sea importante para la química-física.

Aunque la química-física sea una rama separada de la química, está muy relacionada con las demás ramas de la química, todas las ramas de la química necesitan a la química-física. También es importante en otras disciplinas: física, biología y geología.

 Y después de hacer esta introducción, vamos a ver las ramas de la química-física.

TERMODINÁMICA:

termodinámica

La palabra termodinámica se refiere a los procesos de conversión de calor en otras formas de energía.

Se desarrolló en el siglo XIX con Thomson, Kelvin y Carnot. La termodinámica de este siglo se puede resumir en la siguiente frase:

“El calor no es nunca una sustancia ni una manifestación de movimiento de ondas, pero es una forma de energía”.

Después de esto surgió una consideración de la interconversión de calor y energía mecánica, y ahí nace el objetivo de la termodinámica. Estudiar la conversión de calor en energía mecánica y la conversión de energía mecánica en calor.

Es importante decir que la intensidad de calor y la temperatura están relacionados, y esto se piensa desde la antigüedad. Esta relación empezó a estudiarla en 1612, el italiano Santorio Santorio (1561-1636) que diseñó el primer termómetro. Aunque no era un aparato muy fiable y fue corregido en 1700 por Guillaume Amonts (1663-1705).

termometro de santorio santorio

A la izquierda se muestra un retrato de Santorio Santorio y a la derecha se muestra una imagen del termómetro que diseñó.

Más adelante surgieron las escalas conocidas actualmente, la Farenheit y la Centígrada. Al rededor de 1700 Daniel Gabriel Farenheit (1686-1734) , inventó un termómetro líquido de fíar. En 1742 Anders Celsius (1701-1744) inventó la escala centígrada que se utiliza más todavía que la escala Farenheit y aparece en todos los trabajos científicos.

La distinción entre temperatura y calor la hizo Joseph Black, (1728-1799), en esencia lo que dice es que conociendo la temperatura se puede determinar la cantidad de calor.

La publicación de Black de “Lectures on the elements of chemistry” y la de Sady Carnot (1796-1832) “Réflections sur la paissane motrice du feu et sur les machines propes à déveloper cette puissance”  fueron importantes para la fundación de la ciencia de la termodinámica ya que en ellos aparecen explicados las leyes  de la termodinámica.

LEYES DE LA TERMODINÁMICA:

-PRIMERA LEY DE LA TERMODINÁMICA:

Independientemente de lo que ocurra, la energía total en el universo permanece invariable: “La energía no se crea ni se destruye, solamente se transforma de una forma a otra”.

-SEGUNDA LEY DE LA TERMODINÁMICA:

En un sistema aislado, la entropía siempre aumenta. La entropía es la medida de la perte de la energía en el sistema que no se puede utilizar de ninguna manera.

-TERCERA LEY DE LA TERMODINÁMICA:

A medida que la temperatura de un sistema se aproxima al cero absoluto (-273,15 grados centígrados) cesan todos los procesos naturales y su entropía tiende a un valor constante específico. El resultado es que no se puede alcanzar el cero absoluto, ya que no existen procesos con los que esto sea posible.

TEORÍA CINÉTICA Y MECÁNICA ESTÁTICA:

La teoría cinética de los gases, es muy importante en química-física. Es el trabajo de muchas décadas y buscó el entender el comportamiento de los gases en términos moleculares. Se avanzó mucho en la formulación de esta teoría con el desarrollo de la mecánica estática, teoría desarrollada paralelamente a la teoría termodinámica. Esta teoría trató las propiedades de la materia de una manera sencilla.

Antes de seguir hablando de la teoría cinética de los gases me veo obligada a hablar sobre los gases y sobre el desarrollo de ideas sobre la naturaleza de la materia, ya que es importante para poder entender de que habla la teoría cinética.

GASES IDEALES:

Un gas ideal es un modelo para los gases. Las partículas de un gas ideal se mueven libremente y no tienen atracción entre ellas, por lo que no pueden convertirse en líquidos o sólidos. 

El comportamiento de los gases ideales está explicado mediante unas leyes: la ley de Boyle Mariotte, las dos leyes de Gay Lussac y la ley de Avogadro, en el artículo de Cálculos químicos aparecen estas leyes explicadas. Mediante estas leyes se llega a la famosa ecuación de los gases ideales: PV = nRT dónde P es la presión, V el volumen, n, de acuerdo con las reglas IUPAC es la cantidad de sustancia, R es la constante de los gases, es universal.

GASES NO IDEALES O GASES REALES:

Son los que sus partículas se atraen entre si y pueden convertirse en sólidos y líquidos.

Cuándo hablamos de gases no ideales la Ley de Boyle y las Leyes de Gay Lussac ya no se cumplen. Ya no podemos apoyarnos en estas leyes para explicar el comportamiento de los gases ¿Y ahora qué hacemos? El químico-físico irlandés Thomas Andrews (1813-1885) llevó a cabo detalladas investigaciones sobre la relación entre la presión y el volumen. Buscó para que condiciones de presión puede un gas volverse líquido y consiguió explicarlo para el dióxido de carbono, a 31,1 grados centígrados, a esta temperatura la denominó temperatura crítica.

Pero lo que realmente explica el comportamiento de los gases no ideales, fue la explicación que dio en 1873 el físico Johanes Diderik Van der Waals, esta explicación fue dada a nivel molecular. Para un mol de gas la ecuación de los gases ideales se puede expresar del siguiente modo PVm=RT. Dónde Vm es el volumen molar. Van der Waals sugirió que esta ecuación se puede modificar y llegó a lo siguiente:

ecuación de van der walls

Dónde a y b son constantes. b es el volumen completo ocupado por las moléculas, debido a la interacción que tienen unas moléculas con otras, las moléculas no tienen acceso al volumen V completo. La constante a, depende de las fuerzas atractivas que existan entre las moléculas.

Van der Waals estudió detalladamente el comportamiento de los gases, propuso la existencia de fuerzas intermoleculares. Aunque actualmente se conocen fuerzas dentro de estas: dipolos eléctricos y fuerzas de dispersión.

La ecuación de Van der Walls da una interpretación razonable sobre el comportamiento de los gases, aunque experimentos más refinados llevan a ecuaciones más exactas sobre el comportamiento de los gases.

TEORÍAS ATÓMICAS:

Muy brevemente voy a decir que las teorías atómicas son aquellas que se encargan de explicar como lo que forma la naturaleza, es decir como son los átomos. En un principio en la Antigua Grecia se pensaba que eran esferas macizas indestructibles, pero actualmente se sabe que eso no es así. Los átomos están formados por una corteza y un núcleo. En el núcleo se encuentran los protones cargados positivamente y los neutrones con carga 0. Muy alejada del núcleo se encuentra la corteza donde se encuentran los electrones orbitando alrededor del núcleo, cargados negativamente. Es importante destacar que toda la masa de un átomo está concentrada en el núcleo. Los átomos están huecos, entre el núcleo y la corteza no hay nada. 

Si os interesa ampliar vuestra información sobre estos temas os invito a visitar los siguientes artículos del blog:

Y por fin después de este recorrido llegamos a la teoría cinética de los gases. En esencia lo que dice es lo siguiente:

Tanto las características de los estados de la materia como los procesos de cambio que en esta se suceden son explicados mediante la llamada teoría cinético – molecular que podemos resumir de la siguiente manera:

Una muestra gaseosa está constituida por un enorme número de partículas de tamaño muy pequeño y a unas distancias unas de otras mucho mayor que el citado tamaño. Las partículas se mueven en un movimiento rectilíneo y uniforme, caotico, y con choques perfectamente elásticos todo ello regido por unas fuerzas que pueden ser de atracción y de repulsión.

Esta imagen resume de un modo visual la teoría cinético – molecular. Se trata de una muestra gaseosa en un recipiente y las partículas chocando entre ellas, con choques perfectamente elásticos y con un M.R.U caótico. Todo ello regido por unas fuerzas de atracción y repulsión.

Hay que decir que Daniel Bernoulli (1700-1782) propuso una teoría muy similar a la aceptada hoy en día explicada anteriormente. Sólo que su teoría no explica el movimiento de las partículas por calor. El lo que propone es que la presión de un gas es debida al bombardeamiento de las partículas en las paredes de la vasija. Esto aparece en su tratado Hydrodynamica. Esta teoría fue mejorada hasta llegar a la actualmente aceptada.

ESPECTROSCOPIA QUÍMICA:

Se trata de identificar un elemento mediante su “huella”.  Consiste en hacer pasar un haz de luz blanca a través de un prisma, esta se separa en un haz más amplio de diferentes colores. Este fenómeno recibe el nombre de dispersión cromática de la luz y es debido a que las diferentes radiaciones (colores de diferente longitud de onda) que componen la luz blanca se refractan en el prisma de diferente manera, sufriendo una desviación mayor cuanto menor sea su longitud de onda. Se obtiene así el espectro continuo de la luz blanca.

Existen dos espectros: el espectro de emisión y el espectro de absorción:

 

Espectro de emisión es cuando se encierra un elemento gaseoso en un tubo transparente y se calienta a una temperatura bien alta, se hace pasar a trabés de una rendija y luego a través de un prisma y se separan los diferentes colores, pero a diferencia de lo que ocurre con la luz blanca ahora se obtiene un espectro de rayas de color separadas entre sí, se denomina espectro de emisión discontinuo o de rayas.

Espectro de absorción es cuando mediante un espectroscopio se hace que la luz blanca atraviese un gas, se obtiene un espectro continuo con unas rayas negras, estas coinciden con el espectro de emisión de ese gas.

espectro de emisión y absorción

En esta imagen se observan los espectros de emisión y de absorción de un mismo elemento. Si los superponemos se obtiene el espectro continuo de la luz blanca.

Cada elemento tiene su propio espectro de emisión y de absorción y gracias a eso los podemos identificar.

Las aplicaciones de la espectroscopia a la química se vieronen el siglo XIX, pero, para hacer posible la espectroscopia es necesaria la cuantización de la energía  y esto se desarrolló durante los siglos XVIII, XIX y XX.

El color de los espectros es algo conocido desde tiempos muy tempranos, desde Séneca (s.IV a.C) Newton hizo importantes aportaciones a los espectros, en 1672, con un prisma por el que hizo pasar un rayo de luz y lo descompuso en otros colores. Y otros científicos continuaron su trabajo.

newton y el prisma

En esta imagen vemos a Isaac Newton cuanto en sus vacaciones descubrió la existencia del espectro continuo de la luz blanca. Hizo un agujero en la pared y a través de el entró un rallo de luz que lo hizo pasar a través de un prisma de vidrio y este descompuso a la luz en los colores del arco iris.

En el siglo XIX fue cuando más se desarrolló la espectrometría, se hicieron muchos esfuerzos para explicar con detalle los espectros. Las publicaciones de Maxwell de 1870 principalmente son lo más importante. En 1855, Maxwell, con el descubrimiento de la teoría de la radiación hizo que hubiera un cambio en la aptitud hacia los espectros.

En el siglo XX, la llegada de la teoría cuántica en 1900  hizo posible el poder interpretar los espectros. Niels Bohr interpretó el espectro del hidrógeno.

Después el desarrollo de espectroscopia superior a la formulación de la mecánica cuántica fue muy extenso y hay que hacer especial referencia a trabajos de algunos químicos: Las aportaciones de Gerhard herzburg (1904), fueron muy importantes ya que encontró la aplicación de la mecánica cuántica a la espectroscopia. Escribió unos libros para entender la espectroscopia, en 1936 escribió Atomic Spectra and Atomic Structure  y más adelante escribió sobre espectroscopia de moléculas algo que permitió conocer longitudes de enlace y otras propiedades moleculares de los espectros. 

Como “técnicas” que ayudaron a entender mejor la espectroscopia puedo citar el espectro Raman, la espectroscopia láser, la espectroscopía de resonancia magnética y la espectrometria de masas.

ELECTROQUÍMICA:.

La electroquímica es la relación entre la electricidad y las propiedades químicas. Es una rama particularmente importante en la química-física. 

-ELECTRICIDAD:

https://i1.wp.com/www.electronica-basica.com/images/energia-electrica.jpg

La capacidad de capturar energía de forma que se pueda conducir por cables las veinticuatro horas del día y hacer que llegue a los lugares de trabajo ha transformado el mundo y el modo en que vivimos. El hecho de usar esta electricidad para crear luz reduce nuestra dependencia de la luz natural, y al emplearla en motores y productos electrónicos aumenta enormemente la variedad de tareas que podemos llevar a cabo.

Según Tales, en un escrito que data del 600 a.C., los antiguos griegos ya conocían una forma de electricidad. Descubrieron que al flotar pelo sobre una substancia como el ámbar durante el tiempo suficiente podían incluso conseguir que saltara una chispa. Éste es el origen de la palabra electricidad, que procede del griego elektron (ámbar).

Para comprender la electricidad primero es imprescindible saber que toda materia física está constituida por átomos.  Son minúsculos, pero en el centro contienen un núcleo formado por protones y neutrones, y volando alrededor de este núcleo hay partículas más pequeñas que se denominan electrones. Es difícil imaginar cuál es el aspecto de un átomo, pero una antología a la que se recurre es que son como sistemas solares en miniatura, con el núcleo en su centro y los electrones orbitando, del mismo modo que los planetas orbitan al sol.

Los protones, neutrones y electrones se diferencian entre sí en una serie de aspectos. Uno es que los protones poseen lo que los científicos llaman carga positiva (+), mientras que los electrones tienen carga negativa (-). Los neutrones no tienen carga, son neutros. Dado que la carga de un electrón, cuando el número de protones de un átomo es igual al número de electrones, el propio átomo no tiene ninguna carga total. En este caso se dice que es neutro.

La electricidad es posible porque, mientras los neutrones y protones se mantienen fuertemente unidos en el núcleo, uno o más de los electrones en órbita pueden a menudo liberarse y viajar de un átomo a otro. Algunos materiales como los metales están compuestos por átomos que liberan fácilmente a sus electrones, y como resultado estos electrones pueden fluir a través de un material. Este flujo constituye una corriente eléctrica.

Otros materiales, como el plástico y el caucho, están formados por átomos que mantienen fuertemente unidos a sus electrones, y es difícil que la corriente eléctrica los atraviese.

Una de las primeras personas que investigó las propiedades de la electricidad fue Benjamín Franklin(1706 – 1790) . Se dio cuenta de que si se frotaban algunos materiales , se generaba una fuerza misteriosa que podía provocar extraños efectos, como poner los pelos de punta a una persona . También combinó sus experimentos con una serie de bromas. Descubrió que se podía enviar una corriente a través del agua y seguir usando la energía para prender alcohol o pólvora. Del mismo modo, también se hizo famoso por cargar las copas de vino de tal modo que la persona que bebía recibía descargas.

Un día de Junio de 1752 Franklin ató una llave a la cuerda de una cometa y la hizo volar durante una tormenta eléctrica. Se fijó en que podía obtener una carga eléctrica de la llave y dedujo correctamente que un rayo constituía una enorme descarga de electricidad. Hasta cierto punto, éste fue otro de sus “divertidos” trucos, pero también una forma de descubrir electricidad era un poderoso elemento del mundo natural y que el hombre haría bien en aprovecharlo.

ELECTROLISIS:

electrólisis

En la imagen se observa el esquema de una electrolisis.

Uno de los procesos que estudia la electroquímica es la electrolisis. La idea de la electrolisis es la siguiente: para que una reacción sea REDOX (reducción-oxidación) tiene que haber un intercambio de electrones. No todas las reacciones son REDOX  “espontáneamente”, pero se puede conseguir que una reacción sea REDOX mediante energía eléctrica. Esto se consigue mediante el paso de una corriente eléctrica  través de una disolución  a través de una disolución de electrolito o de un compuesto iónico fundido.

En la electrolisis siempre hay conducción iónica de corriente eléctrica.

ASPECTOS CUANTITATIVOS DE LA ELECTRÓLISIS. LEYES DE FARADAY:

En el año 1833, el físico y químico británico Michael Faraday, creador de términos como: electrodo, ánodo, cátodo, electrólito, anión, catión,etc. estudió la electrolisis experimentalmente. Y formuló dos leyes, que se basan en el estudio de la cantidad de sustancia que se descomponía en un tiempo dado, por lo que fue el primero en estudiar cuantitativamente el fenómeno de la electrólisis. Estas leyes se conocen como Leyes de Faraday.

Primera ley: La masa de sustancia liberada en un electrodo es directamente proporcional a la cantidad de electricidad que pasó a través del electrolito.

Segunda ley: Para una determinada cantidad de electricidad, la masa de sustancia liberada es directamente proporcional a su peso equivalente.

Pero Faraday cometió errores: Consideró que la electricidad por si misma no era continua, que las partículas esenciales de la electricidad eran los electrones y que la electricidad era un fluido. Estos errores fueron corregidos en 1891 por Johstone Stoney, lo que hizo fue hablar del electrón como una partícula cargada negativamente, pero no asoció el concepto de electricidad con el de aprtícula. En 1897 por Josep Thomson (1856-1940), hizo el experimento de los rayos catódicos y demostró la existencia del electrón.

APLICACIONES INDUSTRIALES DE LA ELECTROLISIS:

  • Recubrimiento con metales.
  • Obtención de metales.
  • Descomposición del agua.
  • Obtención de cloro.
  • Purificación y refinamiento de metales.

CONDUCTIVIDAD ELECTROLÍTICA Y DISOCIACIÓN:

La manera en que la electricidad pasa a través de una solución de un electrolito, fue una discusión mantenida durante muchos años en la antigüedad. Pero no fue resuelta hasta 1887, cuando Arrhenius y Ostwall (1853-1932) proponen la siguiente teoría: “Existe un equilibrio en disolución entre la molécula no disociada AB y los iones”:

DISOCIACIÓN

Arrehnius lo estudió a nivel cualitativo. Propuso que sustancias tales como el cloruro de sodio en realidad existe en disolución como iones independientes (disociada). Sugiere que algunas partes activas no específicas de las moléculas se formaron en disolución y fueron responsables de transportar la corriente eléctrica.

Ostwall, la estudió a nivel experimental. Y formuló su Ley de dilución “Cuanto menor es la concentración de un electrolito, mayor será su grado de ionización, lo que significa decir que el grado de ionización aumenta a la medida en que se diluye la solución”.

Hoy en día esta teoría es aceptada, pero en su momento hubo ciertas objeciones sobre ella.

Existe una gran relación entre la termodinámica y la electroquímica, de hecho más adelante Debye y Hückel  formularon una teoría acerca de las propiedades termodinámicas de los iones.

CELDAS ELECTROQUÍMICAS:

pila

En la imagen se ve una pila Daniell, o Galvánica elaborada por mi.

Una celda electroquímica es un dispositivo que permite obtener energía eléctrica a partir de una reacción REDOX espontánea.

En 1800 Volta inventó la pila. Pero en los años posteriores se idearon otras células que generarían electricidad. Fueron llamadas de varios modos: Celdas voltaicas, celdas electroquímicas, celdas galvánicas. Usamos la palabra celda en lugar de la palabra batería, ya que esa palabra debería usarse cuando conectamos dos o más unidades de celdas entre ellas. Pero esto no quiere decir que no haya libros que no le llamen pila.

Algunas de estas celdas fueron ideadas por Daniell en el King`s college, London, la que se muestra en la foto es una de ellas. Esta compuesta por dos electrodos, un conductor externo (con o sin voltímetro) y un puente salino.

Otras pilas ideadas fueron la de Grove, la de Johan Ritter y la de Georges Leclanché y la de Gaston Planté.

LA ELECTROQUÍMICA DE NERST:

Las investigaciones de Walter Nerst (1864-1941) llevadas a cabo en 1880-1890 tuvieron gran importancia en células electroquímicas y en las propiedades de iones en disolución, durante este período el solo transformó la electroquímica de un modo muy radical. Ya que antes no se entendía mucho  este tema y gracias a los principios básicos de la termodinámica se pudieron entender mejor.

Nerst hizo importantes contribuciones a la teoría de electrolitos, a la teoría de electrolitos y a las propiedades coligativas.

PROCESOS DE ELECTRODOS: 

Se trata de estudiar los procesos naturales que ocurren en electrodos durante la electrolisis o en una célula electroquímica. El trabajo más importante fue el de Julius Tafel (1862 – 1918).

Tafel, con su ecuación conocida como ecuación de Tafel, hizo una ecuación que permite estudiar la cinéticas de los procesos de electrodos. La electroquímica a demás de estar relacionada con la termodinámica esta relacionada con la cinética. Erdey-Gruz y Max Volmer explicaron la ecuación de Tafel.

Otras aportaciones importantes fueron las de Gurney y Fowler que permitieron tratar los procesos de electrodos de varias maneras. Bawn y Ogden presentaron en 1934 un tratamiento cuántico de la transferencia de un protón a través de la superficie de un electrodo.

CINÉTICA QUÍMICA:

airbag

Es la parte de la química-física que se ocupa de la medida de las velocidades de reacción, de la predicción de estas velocidades y de como establecer probables mecanismos de reacción a partir de los datos de velocidades de reacción.

Cuándo se mandan cohetes al espacio, cuándo salta el air bag del coche, cuándo metemos una pastilla en agua … Hay muchos procesos de la vida cotidiana en los que está presente la cinética química, son procesos en los que la velocidad con que se produce una reacción es importante. 

La cinética química nace en en 1850, cuando el químico alemán Ludwig Ferdinand Wilhelmg (1812-1864) estudió la velocidad de inmersión de la sacarosa.Con sus estudios llegó a la conclusión de que la concentración de las disoluciones influye en la velocidad de reacción.

En 1865, comenzó una nueva fase en la química-física, ya que hubo una colaboración entre químicos-físicos y matemáticos. En este año  August George Vernon Harcourt (1834-1919) y William Esson (1838-1916) estudiaron el tiempo de transcurso de las reacciones. Harcourt llevó a cabo unos estudios sobre la reacción entre el peróxido de hidrógeno y el yoduro de hidrógeno, y sobre la reacción entre el permanganato de potásio y el ácido oxálico. Esson estudió las matemáticas de aquellos procesos químicos. Empezó con las ecuaciones diferenciales para cada tipo de reacción química, integró con la finalidad de resolver las mismas, y obtuvo varias expresiones para la cantidad de producto en función del tiempo, las que actualmente se le llama ecuaciones para reacciones de primer orden y ecuaciones para reacciones de segundo orden.

El siguiente evento importante en la historia de la química-física fue la publicación en 1884, de Van’t Hoff. Junto con sus estudiantes llevó a cabo investigaciones importantes relacionadas con la importancia del equilibrio químico  y la cinética química. En su libro Études de dynamique chimique, publicado en 1884, habla de la importancia del desarrollo de la termodinámica para la cinética química. En este libro, generalizó el análisis matemático de Wilhelmy y Hardcourt y Esson. También explicó el significado de lo que actualmente llamamos orden. Puso ejemplos de reacciones de primer orden (descomposición del arsénico en fase gas) y de segundo orden (hidrolisis del acetato etílico por sosa). Llegó a la conclusión de que en una reacción de primer orden, la cantidad de sustancia que se consume durante un tiempo es independiente de la cantidad inicial.  Integró y derivó la velocidad de ecuación de orden n (v=kc^n), y llegó a la siguiente conclusión: “El orden de una reacción además de uno y dos, puede tener otros valores más altos, además de dos”. Aunque todavía no se ha encontrado ningún caso. En otros libros, introdujo el concepto de vida media de un reactivo y entendió algunos de los mecanismos que influyen en la velocidad de reacción.

Un factor que juega un papel importante en la cinética química, es la temperatura. El problema proviene de 1850 y fue estudiado hasta 1910. Joseph William Mellor (1869-1938),en 1904 y Van`t Hoff, en 1898, con sus estudios, llegaron a la conclusión de que no se podía determinar la manera en que la temperatura influye en la velocidad de reacción. Sin embargo, Harcourt , en 1898 y Kooij, en 1893 llegaron a la conclusión de que la velocidad de una reacción se incrementa con la temperarura.

MODELOS TEÓRICOS DE LA CINÉTICA QUÍMICA:

Son teorías que tratan de explicar porque una reacción tiene un determinado orden. Son el caso de la teoría de colisiones y de la teoría del estado de transición.

CATÁLISIS:

Se trata de mecanismos para acelerar una reacción, sin que esta experimente algún cambio permanente. Cuándo se representan en una reacción química siempre aparecen encima de la flecha que separa a los reactivos y a los productos. Cada reacción tiene unos catalizadores específicos que hacen que funcione correctamente.

Existen dos tipos de catálisis: Catálisis homogénea y catálisis heterogénea.

En la catálisis homogénea, la reacción catalizada tiene lugar en una sola fase.

En la catálisis heterogénea, la acción del catalizador tiene lugar sobre una superficie que separa dos fases. 

En las reacciones bioquímicas, los catalizadores son proteínas de alta masa molecular, llamadas enzimas. El reactivo llamado sustrato, se une a la posición activa del enzima, que es donde ocurre la reacción.

ENZIMAS

En esta imagen se muestra el esquema de una catálisis enzimática.  La sustancia sobre la cual actúa una enzima se llama sustrato. La enzima y el sustrato se unen mediante enlaces débiles, formando el complejo enzima-sustrato (ES) que presenta los enlaces internos del sustrato debilitados. Después se forma el complejo activado, que es el estado de transición del complejo enzima-sustrato. Para alcanzar este estado se requiere mucha menos energía que para llegar al estado de transición del sustrato solo. Al acabar la transformación se convierte en complejo enzima producto (EP) y, finalmente, el producto (P) se desprende.

La velocidad de una reacción catalizada por enzimas se puede calcular mediante una ecuación que se basa en un mecanismo generalmente aceptado para la catálisis química.

DINÁMICA DE REACCIONES:

dinámica de reacciones

La dinámica de reacciones o dinámica molecular es una rama de la cinética química que crece rápido y lleva a la química a producir un cambio. Trata de estudiar lo que ocurre en una reacción a nivel intermolecular. 

Las investigaciones sobre dinámica de reacciones, comenzaron entre 1920 y 1930 por Michael Polanyi (1891-1976)  y colaboradores estudiaron el caso concreto del cloruro de sodio. Más tarde estas investigaciones las continuó el hijo de Michael Polanyi, John C. Polanyi (1929) que usó la espectroscopia para estudiar los estados vibracionales de reactivos y productos.

F.O.Rice, Harold Clayton Urey (1893-1891) y R.L.Washburn estudiaron los haces moleculares presentes en la descomposición del pentaóxido de nitrógeno.

A lo largo del siglo se estudiaron más reacciones.

COLOIDES Y QUÍMICA DE SUPERFICIE:

A comienzos del siglo XIX los químicos empezaron a preguntarse como sustancias tales como oro y sulfuro son insolubles pero existen a veces en aparentes disoluciones homogéneas.

La solución al problema la propuso el químico y físico escocés Thomas Graham (1805-1869), se considera el fundador de la ciencia de la química de coloides.

Una dispersión coloidal o sistema coloidal es una mezcla heterogénea que precisa del microscopio para distinguir sus fases.

En toda dispersión hay 2 fases:

  • Fase dispersa: Se encuentra en menor proporción y es la fase discontinua cuando se observa al microscopio (miscropartículas, microgotas, microburbujas).
  • Fase dispersante: Es la que se encuentra en mayor proporción y constituye la fase continua.

Por ejemplo, la leche está formada por pequeñas gotas de grasa dispersas en un medio acuoso. Las gotitas de grasa forman la fase dispersa o discontinua, el liquido acuoso, la fase dispersante o continua.

Efecto Tyndall:  Un rayo de luz, al atravesar una dispersión coloidal traslúcida, se refleja y se refracta cuando choca con las partículas, gotitas o busbujas de la fase dispersa, lo que provoca que la luz se disperse. Debido a este efecto, las dispersiones coloidales suelen ser opacas o traslúcidas, a diferencia de las disoluciones cuyas partículas más pequeñas las hacen transparentes.

 El tamaño de la fase dispersa:

Las partículas coloidales atraviesan los filtros ordinarios, debido a su pequeño tamaño, pero son retenidas por los ultrafiltros.

El diámetro de las partículas coloidales oscila aproximadamente entre 10^-7 y 10^-8 m, mientras que el de las partículas de una suspensión no coloidal es superior a 10^-7 m, las de una disolución verdadera son inferiores a 10^-8 m.

La físico-química de superficies es la ciencia que estudia los fenómenos físicos y químicos que ocurren en las interfases, es decir, en la superficie que delimita dos fases. Geométricamente, se define superficie como el conjunto de puntos que delimitan un cuerpo. Desde el punto de vista físico-químico, estos puntos son los átomos que delimitan a el cuerpo. Estos átomos interactúan con los que forman la superficie de otra fase adyacente. Como ejemplos podemos citar: la interfase entre el aire y un trozo de metal y la interfase entre la piel y una crema dérmica.

Existen distintos tipos de interfase:

  • Gas-líquido.
  • Gas-sólido.
  • Líquido-liquido.
  • Líquido-sólido.
  • Sólido-sólido.

QUÍMICA CUÁNTICA:

A principios del siglo XX se pensaba que la ciencia estaba explicada, que sólo faltaban un par de pequeños detalles por resolver. Pensaban que todo lo explicaban los principios de la mecánica, de echo los científicos estaban satisfechos. Lord Kelvin, el 27 de Abril de 1900 hizo la siguiente lectura en la Royal Institucion: “La belleza y la claridad de la teoría dinámica, la cual afirma que el calor y la luz sean modos de movimiento, en la actualidad está oscurecida por dos nubes: La primera implica la pregunta ¿Cómo puede moverse la tierra a través de un sólido elástico tal como es el éter luminoso. La segunda es la doctrina Maxwell-Boltzman de la partición de la energía”.

Pero en ciencia no existe ninguna verdad incuestionable, cada vez se descubren modelos nuevos que superan a los anteriores. A veces suponen hacer solamente ligeras modificaciones a teorías ya existentes y otras veces es necesario hacer un cambio completamente radical. Esto es lo que ocurrió en el siglo XX, hubo tal revolución científica que todos los conceptos químicos tuvieron que ser revisados. Esta revolución fue causada por el nacimiento en 1900 de la teoría cuántica y la teoría de la relatividad en 1905, formulada por Albert Einstein. Einstein fue uno de los protagonistas de esta revolución, además de formular la teoría de la relatividad hizo aportaciones importantes a la teoría cuántica que tuvieron importancia en la química.

TEORÍA DE LA RELATIVIDAD DE EINSTEIN:

Gifs Animados Ciencia (28)

Si se pide a alguien que escriba una ecuación científica, es muy probable que se acuerde de la ecuación de Einstein             

E = mc^2Parece una sencilla idea, pero describe un concepto increíble.

Uno de los grandes descubrimientos de Einstein consistió en averiguar que la materia y la energía son formas distintas de una misma cosa, lo que significa que la materia se puede convertir en energía y la energía en materia. La ecuación E = mc^2 surgió de unos experimentos que empezaban a demostrar que la luz poseía unas características muy extrañas. En primer lugar, la luz únicamente existe si se está moviendo; no existe nada que se parezca a un poco de luz inmóvil. En segundo lugar, la luz siempre se desplaza a una velocidad concreta. Einstein sostuvo la idea de que nada podía desplazarse más deprisa que la luz.

El hecho de averiguar que la velocidad de la luz era uno de los conceptos básicos del universo llevó a Einstein a analizar las implicaciones de dicha afirmación. A finales del siglo XX, los físicos se hallaban cómodos con la idea de que la energía del movimiento de un objeto, su momento se podía calcular multiplicando la masa por el cuadrado de su velocidad. Estaban acostumbrados a la idea de que para duplicar la velocidad a la que se desplazaba un objeto era necesario aplicarle un valor de energía cuatro veces superior. Por consiguiente, era natural que Einstein, a la hora de estudiar las repercusiones del movimiento de un objeto a la velocidad de la luz, se fijara en la energía que contenía y le aplicara la misma ecuación. De inmediato advirtió que la cifra resultante era astronómica.

Su genialidad consistió en sugerir que esto tenía un doble significado. El primero, que si acelera un objeto a una velocidad próxima a la de la luz, se volverá considerablemente más pesado. Y el segundo, que se podría conseguir liberar la energía que contiene un objeto en su masa.

Los físicos han construido gigantescos aceleradores de partículas que consiguen que diminutos protones puedan moverse hasta alcanzar el 99,9997 % de la velocidad de la luz. Este proceso requiere grandes cantidades de energía, pero al final, el protón ve incrementando su tamaño más de 450 veces.

La aparición de la bomba atómica demostró la validez  del segundo concepto. Los físicos observaron que en los materiales radiactivos como el uranio, algunos átomos se desintegraban de forma espontánea para crear dos nuevos elementos, pero también se comprobó que la masa de estos nuevos elementos era menor que la del átomo de uranio original. La diferencia en la masa se liberaba en forma de energía: calor. En la Segunda Guerra Mundial estos físicos no tardaron demasiado en llegar a la conclusión de que si se juntaba uranio suficiente, se podía utilizar la energía que liveraba para dividir más átomos. El proceso genera una reacción en cadena que, cuando se controla, es capaz de alimentar las centrales nucleares, pero si no se controla , produce una explosión atómica.

Existen dos teorías de la relatividad la relatividad especial y la relatividad general, que la idea que captan ambas es que la percepción del espacio y del tiempo dependen del estado de movimiento del observador.

Relatividad especial:

La Teoría de la Relatividad Especial, presentada por Albert Einsteinen 1905, trata los temas relacionados con el marco de referencia. Esta teoría tiene dos postulados:

  • Las leyes físicas se pueden expresar mediante ecuaciones que tienen la misma forma en todos los sistemas de referencia que se mueven a velocidad constante unos con respecto a otros.
  • La velocidad de la luz en el espacio libre tiene el mismo valor para todos los observadores, independientemente de su estado de movimiento.

Relatividad general:

Esta teoría fue publicada por Einstein en 1916 dice que la gravedad es una fuerza de atracción universal que sufren todos los objetos con masa, sea este un electrón o una estrella. Extendió los conceptos de la relatividad especial para explicar la atracción gravitacional entre masas. También afirmó que la estructura del espacio-tiempo es modificada por la presencia de un agujero negro*.

*Agujero negro: Región del espacio-tiempo de la cual nada, ni siquiera la luz, puede escapar, debido a la enorme intensidad de la gravedad.

MECÁNICA CUÁNTICA:

mecánica cuántica

La mecánica cuántica es la teoría individual más importante de la física. Describe como los átomos se unen para formar moléculas, como trabajan los semiconductores y explica como funciona un láser. Sin ella no tendríamos ordenadores, ni reproductores MP3, ni teléfonos móviles, ni algunos tratamientos médicos capaces de salvar vidas, ni muchísimas otras cosas.

¡Si la mecánica cuántica no te sorprende es que no la has comprendido! – Niels Bohr

Esta teoría explica como las cosas ocurren de un modo distinto en el mundo microscópico que en el mundo macroscópico. Conceptos de la vida corriente relativos a la fuerza y al movimiento no tienen el mismo valor, en lugar de eso necesitamos lo denominado reglas cuánticas que nos ayudan a comprender lo que ocurre en el nivel microscópico.

Es una teoría envuelta en el misterio, ya que se desconoce el cómo y el porqué cosa que no ocurre en las demás teorías científicas.

En esencia lo que dice es: “las cosas pueden estar funcionando de todas las maneras inimaginables hasta el momento de realizar la observación o medición”.

Esta idea fue desarrollada en el siglo XX por el físico alemán Max Planck, quién afirmó que la energía se presenta en pequeñas unidades denominadas “cuantos”. Esta teoría fue ampliada por Albert Einstein, Niels Bohr, Paul Dirac y Werner Heisenberg entre otros en la década de 1920.

TEORÍA DE LA RADIACIÓN DE UN CUERPO NEGRO DE MAX PLANCK (1900):

Todos los objetos emiten ondas electromagnéticas. El físico alemán Max Planck descubrió la ley que gobierna la radiación de los cuerpos en equilibrio termodinámico. Según Planck, la intensidad de radiación para cada longitud de onda depende únicamente de la temperatura del cuerpo en cuestión. 

El espectro de radiación para cada longitud de onda al que llegó Pauling tiene una forma característica. Los físicos designan este espectro con el nombre de radiación de cuerpo negro. Planck llegó a este resultado introduciendo el concepto de quantum de energía.

La energía en la naturaleza sólo se puede intercambiar en paquetes con cantidades discretas, este es el principio de la mecánica cuántica.

Esta teoría está relacionada con los orígenes del universo, ya que se cree que la energía que existió en los orígenes del universo debe existir aún en el espacio y tener espectro de cuerpo negro. Esta radiación se denomina radiación de fondo.

TEORÍA DE LA CUANTIZACIÓN DE LA RADIACIÓN DE EINSTEIN (1905):

Einstein se basó en la teoría de la radiación del cuerpo negro de Planck. 

La sugerencia de Einstein fue que la radiación se cuantizaba a si misma. El efecto fotoeléctrico tiene un papel importante en la cuantización de la energía y fue por lo que recibió el premio nobel en 1921. El efecto fotoeléctrico se basa en la idea de que una superficie metálica desprende electrones al incidir sobre ella. La explicación que dio Einstein de este fenómeno es que los fotones (cuántos de energía que forman la luz) al incidir sobre la superficie metálica ceden su energía al protón. Esta energía se invierte en separar al electrón del metal. Hay que saber cuánta energía hay que aplicarle a un metal porque alomejor le aplicas una energía a un metal pero no es suficiente para que los fotones cedan energía, entonces Einstein define el concepto de energía umbral, esta es la energía mínima para arrancar los electrones del metal, y debemos aplicarle también al electrón una energía cinética.

MODELO ATÓMICO DE BOHR:

Los electrones se disponen alrededor del núcleo según niveles de energía creciente.

Sólo servía para explicar el átomo de hidrógeno.

Sus principales aspectos son:

  • El electrón de un átomo solo puede moverse en determinadas órbitas alrededor del núcleo. En cada órbita, el electrón tiene una determinada energía y, por tanto, solo son posibles determinados valores o niveles de energía permitidos para el electrón.
  • El nivel de energía más bajo corresponde a la órbita más próxima al núcleo. A medida que las órbitas electrónicas se alejan del núcleo sus energías crecen. Eñ modelo permite calcular teóricamente el valor de estos niveles de energía en función del número cuántico principal.
  • La emisión o absorción de energía de un átomo se corresponde con el tránsito electrónico entre diferentes órbitas. Su un electrón absorbe fotones de energía, pasa de una órbita más interna a otra más externa, emite fotones de energía.

Un electrón no varía su energía cuando se mueve en una  misma órbita, pero sí lo hace al cambiar de órbita, ya que se modifica el número cuántico principal.

PRINCIPIO DE INCERTIDUMBRE (WERNER HEISENBERG) 1926:

https://descubrirlaquimica.files.wordpress.com/2013/06/7013d-08q8t.jpg?w=567&h=323

Fue formulado por Werner Heinsenberg en el año 1926. Dice que no hay límites a nuestras capacidades de medir simultáneamente ciertas magnitudes, como por ejemplo la posición y la velocidad de una partícula. Según este principio si multiplicamos la incertidumbre en la posición de una partícula por la incertidumbre en su cantidad de movimiento (su masa multiplicada por su velocidad) el resultado nunca puede ser menor que cierta cantidad fija denominada constante de Plank.

Dicho de un modo más sencillo: Cuanto más precisa es la medida de la velocidad menos precisa será la medida de la posición y viceversa. Ejemplo: Si reducimos la mitad de la incertidumbre en la posición, se duplicará la incertidumbre en la velocidad. También es importante observar que en comparación con las unidades de corrientes de medida, como los metros, kilogramos y los segundos, la constante de Plank es muy pequeña (6/10.000.000.000.000.000.000.000.000.000.000.000.). Como resultado de ello, si determinamos la posición de un objeto macroscópico como una pelota de fútbol, con una masa del orden de un tercio de kilogramo, con una incertidumbre de un milímetro en cada dirección, aún podemos medir su velocidad con una precisión mucho mallor que una billonésima de billonésima de kilómetro por hora. Eso es así porque, medida en estas unidades, la pelota de fútbol tiene una masa de 1/3 y la incertidumbre en su posición es de 1/1000. Ninguno de estos factores es suficientemente pequeño para dar razón de todos los ceros de la constante de Plank, y por lo tanto su pequeñez corresponderá a la pequeña incertidumbre en la velocidad. Pero en estas mismas unidades un electrón tiene una masa de 0,000.000.000.000.000.000.000.000.000.001, de manera que para los electrones la situación es muy diferente. Si medimos la posición de un electrón con una precisión del orden del tamaño de un átomo, el principio de incertidumbre dice que no podemos conocer su velocidad con precisión mallor de unos mil kilómetros por segundo, que no es muy precisa.

Según la física cuántica, sea cual sea nuestra capacidad de información o nuestra capacidad de cálculo, no podemos predecir con certidumbre los resultados de los procesos físicos porque no están determinados con certidumbre. En lugar de ello, dado el estado inicial de un sistema de naturaleza determina su estado futuro mediante un proceso fundamentalmente incierto. En otras palabras, la naturaleza determina su estado futuro mediante un proceso fundamentalmente incierto.En otras palabras, la naturaleza no dicta el resultado de cada proceso o experimento nisiquiera en las situaciones más simples. Más bien, permite un número de eventualidades diversas, cada una de ellas con una cierta probabilidad de ser realizada. Es diciendolo en las palabras de Einstein, como si Dios lanzara los dados antes de deducir el resultado de cada proceso físico. La idea inquietó a Einstein y, a pesar de que fue uno de los padres de la física cuántica, posteriormente se convirtió en uno de sus críticos más destacados.

Puede parecer que la física cuántica mire la idea de que la naturaleza está regida por leyes, pero no es ése el caso, sino que nos lleva a aceptar una nueva forma de determinismo: dado el caso de un sistema en cierto momento, las leyes de la naturaleza determinan las probabilidades de los diversos futuros y pasados en lugar de determinar con certeza el futuro y el pasado. Aunque esto resulta desagradable para algunos, los científicos deben aceptar teorías que concuerden con los experimentos y no con sus nociones preconcebidas.

“Lo que la ciencia pide es una teoría que pueda ser puesta a prueba”

Para explicar el principio de incertidumbre Schrödinger propone el siguiente experimento imaginario:

  1. Introducir a un gato en una caja.
  2. Poner en la caja un recipiente de veneno que se abre por una sola partícula radiactiva e introducir cuidadosamente un metal radioactivo con una posibilidad 50:50 de emitir partículas.
  3. No podemos mirar lo que hay dentro de la caja. No sabemos el estado del gato, ahora dentro de la caja hay dos medios gatos, uno que está vivo y otro que está muerto.

“Los átomos pueden hacer dos cosas al mismo tiempo. Un gato está compuesto de átomos. Puede estar vivo y muerto al mismo tiempo” 

LA ECUACIÓN DE ONDA DE SCHRÖDINGER 1926:

Schrödinger formuló una ecuación de ondas materiales que lleva su nombre, denominó función de onda,Ψ, a la magnitud variable de las ondas materiales. Esta magnitud no puede observarse y carece de significado físico directo. Inicialmente, tanto De Broglie como Schrodinger trataron de asignarse una realidad física, aunque pronto desistieron. En 1926, Max Born interpretó el significado de Ψ en términos de probabilidad de encontrar la partícula en un espacio igual a su longitud de onda de De Broglie asociada. 

La mecánica cuántica describe a los electrones mediante funciones de onda Ψ, que son soluciones de la ecuación de Schródinger y se denominan orbitales. Los orbitales son las zonas donde hay una probabilidad muy alta (superior al 90%) de encontrar a los electrones de un átomo. Esta ecuación ha hecho que se cambie la manera de pensar en los átomos y en las moléculas.

La mecánica cuántica tiene importancia en la química ya que influyó en las teorías de enlace. Como ejemplos de teorías de enlace en las que influyó podemos citar: La teoría de Lewis, la Teoría de Enlace Valencia y la Teoría Orbital Molecular.

Descubrirlaquimica. Estudiante de química en la USC.

18/04/2014

2 comentarios to “Química-física”

  1. patricia maria de rosa martinez Says:

    si estoy de acuerdo con todo lo que dice me gusta mucho

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s


A %d blogueros les gusta esto: