Destacado

Aplicación de expresiones logarítmicas: Terremotos

Últimamente se ha desencadenado una oleada algo perturbadora de eventos sísmicos, Resultado de imagen para Charles F. Richterllevando a más de uno a preguntarse ¿qué está sucediendo con nuestro planeta? y parte de la respuesta ya  la conocemos. Sin embargo y más allá de todo ello, quisiera compartir algo sencillo, pero no menos importante; y es la presencia de las matemáticas en estos fenómenos naturales. Y es donde entra la figura de un gran personaje el sismólogo Charles F. Richter. Este importante hombre de ciencia norteamericano vio en los sismos un gran problema y era lo difícil que resultaba entender la magnitud de un sismo; difícil ya que concederle una magnitud fija a algo que puede estar sujeto a diversos puntos de vista puede terminar siendo una tarea sumamente complicada puesto que si a una persona un sismo le pareció algo interminable y cataclísmico, quizás para otra no paso de ser un susto común; de todos modos en el mundo de la ciencia no hay espacio  para “cortinas de humo”. Y es cuando Richter decide crear una escala numérica que permita estandarizar la intensidad sísmica,  valiéndose de logaritmos, ¿cómo? veamos a continuación:

Resultado de imagen para Charles F. Richter

Los logaritmos se utilizan para medir la magnitud de los terremotos. En la escala Richter desarrollada por Charles F. Richter se consideran valores que van de -1 a 9, aunque en la realidad los valores de sus magnitudes pueden fluctuar específicamente de 1 a 9, muchos sismólogos consideran que un sismo de escala 10 en Richter podría ser el más devastador de todos los terremotos y se lo compara con una fuerza capaz de fisurar un continente, por tanto es denominado como “super terremoto” hipótesis que se plantean como un fenómeno que podría relacionarse con  la separación del supercontinente PANGEA dicho de otra manera, se necesitaria 56.000.000.000.000 kilos explosivos para desatar la energia consecuente de un sismo de dicha intensidad.

Resultado de imagen para escala de richter

Pues  bien la expresión matemática desarrollada por el sismólogo estadounidense fue:

R=log(10)I

donde,Resultado de imagen para escala de richter

R=representa el valor dentro de la escala de Richter de 1-10.

I= representa el número de veces que es más intenso el terremoto respecto de la actividad sísmica más pequeña que se puede medir con un sismógrafo.

¿Cómo se aplica?

a) Por ejemplo: si un sismo suscitado es de 4º en la escala de Richter ¿cuántas veces es más intenso con respecto a la actividad sísmica más pequeña que se puede medir?

-El número asignado en la escala Richter es (R), es 4. Para determinar ¿cuantas veces más intenso el terremoto con respecto al mínimo medible del sismógrafo (I); sustituimos R=4 en la fórmula y despejamos I.

R=log(10)I

4=log(10)I

cambiamos a la forma exponencial:

104=I

I= 10000

INTERPRETACIÓN: el valor obtenido de I= 10000;  indica que con respecto a la actividad sísmica mínima que puede ser medida por el sismógrafo, dicho evento sísmico fue diez mil veces más intenso.

Por lo tanto allí radica en parte de lo impredecible que es un sismo, y para entenderse como magnitud, es necesario que el evento haya ocurrido para proceder con la valoración del mismo. Y por esa misma razón en ocasiones los valores dados por instituto geofísico tienden a cambiar levemente  ya que siempre el primer valor resulta ser tentativo o aproximado y sujeto a revisión para un valor más exacto, pero dicho valor preliminar permite a las autoridades competentes actuar adecuadamente frente a un evento catastrófico.

Resultado de imagen para escala de richter

b) ¿cuántas veces más intenso es un sismo de 5º en la escala de Richter con respecto a uno de 4º?.

5=log(10)I

105=I

I= 100000

100.000/10000=10 (I de 5º con respecto a I de 4º)

INTERPRETACIÓN: un terremoto que mide 5º es 10 veces más fuerte que uno de 4º.

BIBLIOGRAFÍA: 

Allen,R. (1998) Álgebra intermedia. Funciones exponenciales y logarítmicas. (pp.630) 3º Ed. México: Pearson Prentice Hall.

Anuncios
Destacado

Hablemos de Drogas! (PARTE III) Ansiolíticos: Mitos y Verdades.

¿Ha sentido miedo excesivo porque el avión sufrió alguna fuerte turbulencia? Ésta y muchas otras situaciones son capaces de desencadenar cuadros de pánico, miedo o una fuerte ansiedad; Pero qué sucede cuando esta ansiedad va más allá? dejando de ser un miedo estacional y se convierte en algo patológico. Pues hay que partir de allí, el miedo, ansiedad, depresión, angustia o pánico desenfrenado, excesivo e inmanejable es una enfermedad! Por esta razón han sido muchas las casas farmacéuticas que han concentrado sus esfuerzos en mitigar estos efectos en sus pacientes; es así como hace no menos de 60 años nacieron los ansiolíticos.

Resultado de imagen para sufrimiento psicologicoSabemos que el sufrimiento psicológico como tal, radica en la complejidad del ser humano desde lo más profundo de su conciencia hasta lo más  ininteligible de la fisiología; en retrospectiva si deseamos estudiar a profundidad a lo que se ha denominado “sufrimiento psicológico”, deberemos entonces entramar diversas ciencias para lograr, en algo, abarcar tan complejo asunto, y es precisamente en este punto complejo, donde radica el mayor punto débil de un ser humano, debido a que se vuelve un blanco fácil  y  muy susceptible a caer en el fatal  mundo de las drogas.

La situación actual entorno a este tipo de drogas, llámense ansiolíticos, es verdaderamente dramática; por ejemplo y según mencionan:

Jorge Enrique Machado, Verónica Alzate & et all. en un importante estudio sobre Las Tendencias de consumo de medicamentos ansiolíticos e hipnóticos; realizado en la hermana República de Colombia entre 2008 y 2013 se dice en su investigación que en Latinoamérica el consumo de psicofármacos ocupa el tercer lugar de medicamentos más comercializados, siendo antidepresivos y ansiolíticos los más solicitados con un 35% y un 5% respectivamente.

Por tanto y ante la creciente ola de consumo de dichos fármacos, considero importante tratarlos como un asunto de salud pública de vital importacia, por que no existe una limitante definitiva para el acceso a dichos medicamentos, realidad propia de nuestra América. Las cifras son alarmantes siendo la ansiedad y trastornos del sueño los espectros terapéuticos mas comunes en torno al consumo de las presentes drogas. Por ejemplo y según los mismos autores anteriormente citados; los trastornos de ansiedad entendidas como alteraciones psiquiátricas de alta prevalencia mundial han aumentado de forma proporcional conforme ha ido desarrollando avances tecnológicos entorno a las comunicaciones, actualmente dichos trastornos están permanentemente ligados a Resultado de imagen para ansiedadredes sociales, e internet de frente a una realidad en la que el acceso a estas tecnologías de forma masiva han derivado en definitiva en graves efectos nocivos entorno a la salud mental de los seres humanos. Los autores estiman que en Estados Unidos 30 millones de personas sufren trastornos de ansiedad siendo el género de mayor prevalencia el de mujeres. Por tanto la ansiedad esta estrechamente ligada a gran morbilidad  y calidad de vida, entorno económico y diversos factores psicosociales, dando como resultado un costo aproximado de tratamiento que fluctúa entre los US$  6475. En contraste, el conocimiento en torno al uso de estos medicamentos es deficiente, provocando el mayor de los males, y que dicho sea de paso  no es únicamente el enriquecimiento de las industrias farmacéuticas  si no la dependencia y adicción que puede llegar a experimentar un paciente mal informado y de manera especial el sector de la población que tiene mayor tendencia a su consumo que son las mujeres según diversos estudios.

El presente artículo no se centra específicamente en los psicofármacos, si no más bien en su incidencia con respecto al consumo indiscriminado de los mismos. Sin embargo la literatura médica menciona al menos 9 tipos de ansiolíticos: benzodiacepinas, barbitúricos, buspirona, alprazolam, diazepam,  lorazepam, bromazepam,  cloracepato y  antihistamínicos varios. Sin embargo y apesar de los esfuerzos que hacen las industrias farmacéuticas por sintetizar sustancias químicas mas sofisiticadas con la finalidad de ayudar a los pacientes que presentan patologías varias en el ámbito psiquiátrico, es preciso aclarar que los ansiolíticos como tal, NO CURAN LA ANSIEDAD, y sus efectos sobre la misma son de carácter netamente químico, ya que mediante diversos mecanismos de acción inciden en aquellas sustancias, llámense neurotransmisores sintetizados por nuestro cuerpo humano de forma natural.

Resultado de imagen para serotonina
SEROTONINA

Por ejemplo ¿sabía usted qué… La sustancia química que se encarga de equilibrar su estado de ánimo se denomina SEROTONINA, cuyo déficit le produciría un grave cuadro de depresión? ¿Qué es lo curioso? este neurotransmisor se produce en nuestro cerebro e intestinos así lo menciona el Medical News Today (2016); por tanto mis queridos lectores, no se necesita ser un genio para deducir cómo combatir en parte a la temida depresión, ya que si se pueden dar cuenta notaran que dicha sustancia se produce en sus intestinos y cerebro, habrá que suponer entonces que una buena dieta y un cuidado adecuado de lo que consumimos tanto en alimentos como en otras sustancias como el alcohol están directamente ligadas al bienestar de los mencionados órganos por tanto parte dela solución radica en el qué comemos y en el qué bebemos, ya que no es ninguna casualidad ver un ebrio muy alegre (niveles alborotados de serotonina) o uno demasiado deprimido (niveles de serotonina bajos). Analicemos un poco más, la serotonina entra en acción gracias a diversas reacciones bioquímicas en nuestro cerebro, cuyo tejido (tejido cerebral) se compone de una serie de células, que pueden clasificarse según su apariencia y funcionamiento. Las células más importantes y numerosas son las células nerviosas (neuronas). En el cerebro humano hay alrededor de 200 mil millones de neuronas así lo afirma la Dra. María Fernanda Pedrero (2012) de modo que la posibilidad de caer ante situaciones estresantes que lleven a cuadros de ansiedad y depresión se reducen cuando cuidamos de dichas células, evitando el alcohol, cigarrillo u otras drogas.

Resultado de imagen para ansioliticos

Lo complicado del asunto radica en una sociedad cada vez más mercantilista, una que piensa que la felicidad está detrás de esta su pantalla que no es mas que un cúmulo de silicio programado para hacerle creer que es feliz. Hoy la felicidad aparentemente nace de un “meme”, un video inapropiado o quizás algún idiota creyendo ser payaso desde una plataforma de You Tube, así que creo firmemente que es una sociedad verdaderamente distópica propensa a caer en un montón de mentiras que gasta miles de millones en producir libros de superación personal y bobos manuales que cínicamente le ofrecen encontrar la tan anhelada felicidad. Cuando la realidad es otra, una que va mas allá de la sonrisa perfecta, y que no se come el cuento, de que la felicidad se vende; una en que los verdaderos demonios se alojan en casa con personas como tú o como yo a la sombra de la ansiedad o  la depresión. Y como la sociedad busca siempre salidas rápidas al asunto, tenemos una industria farmacéutica lista para suministrarle algo de felicidad y calma, a pesar de mis palabras no quiero caer en la radicalización, pues existen cuadros patógenos psiquiátricos endógenos cuya única salida es la vía química y entiéndase que estos casos son cuestiones en las que la medicina debe hacer su trabajo y no es éste el problema que busco criticar.

Resultado de imagen para adiccion a las redes sociales

El pasado 7 de agosto del 2017, Andrea Rodríguez periodista de Diario El Telégrafo, (periódico de Ecuador) plantea la siguiente pregunta: ¿Es posible vivir sin estos fármacos? La respuesta es simple, y vas más allá de un simple SI, la respuesta verídica se encuentra allí, en el lugar que posiblemente es el más olvidado en esta neo sociedad moderna; la respuesta está en la FAMILIA, pues muchos de los patrones que generan adicción provienen de desórdenes intrafamiliares. Los seres humanos estamos de frente a una gran amenaza, pues pasamos de sociedades en que los niños no le temian al frío ni al lodo a una en la que un dispositivo móvil hace las veces de madre o padre, esclavizando a nuestros niños  a un peligroso mundo, la internet y si usted es padre o madre de familia le dejo la siguiente interrogante ¿sabe usted qué clase de miedos maneja su hij@ actualmente?Resultado de imagen para dejar adiccion a farmacos

Pero el cuerpo humano es perfecto biológicamente hablando, y ansiedad no es precisamente el monstruo de esta historia, pues no siempre es perjudicial ya que su razón de ser es la de mantener vencida la voz de alerta ante un probable peligro. Si no recuerde todas esas veces que se salvó de un buen accidente gracias a que se mantuvo alerta todo el camino. Mas aquella ansiedad que nubla un juicio, anula, bloquea, inmoviliza  y que en especial le roba su calma  es una que le resta calidad de vida.

En Ecuador los psicofármacos se encuentrar normados por la ley  y requieren de prescripción médica para su suministro, segun la ya mencionada reportera y haciéndo uso de  una se sus citas:

“En Ecuador, el Ministerio de Salud controla la venta de estas sustancias, de acuerdo al nuevo Código de Salud. Además, los ansiolíticos son prescritos por neurólogos, psiquiatras y anestesiólogos, profesionales que tienen conocimiento del sistema nervioso central y de la acción que pueden tener sobre la conducta”.

Adrián Lozano Beltrán, médico psiquiatra del Hospital Metropolitano

Esta noticia ha sido publicada originalmente por Diario EL TELÉGRAFO bajo la siguiente dirección: https://www.eltelegrafo.com.ec/noticias/702/51/los-farmacos-contra-la-ansiedad-pueden-generar-adiccion

Donde el médico entrevistado afirma que las sustancias denominadas benzodiazepinas (medicamentos que tienen un efecto ansiolítico, hipnótico y relajante muscular) fueron creadas como respuesta a los barbitúricos, medicamentos que funcionan sedando el sistema nervioso central en distintos niveles; y agrega :

Los barbitúricos siempre fueron muy riesgosos, porque al ingerirse, incluso en dosis bajas, podían conducir al suicidio, como el caso de la actriz Marilyn Monroe, quien murió por una sobredosis de esta sustancia. Adrián Lozano Beltrán, médico psiquiatra del Hospital Metropolitano

Por esta razón es que los ansiolíticos siempre deben prescribirse conjuntamente con

Resultado de imagen para muerte de marilyn monroe
Norma Jean (Marilyn Monroe)

antidepresivos sin embargo ¿a qué ser humano le viene bien un cóctel de medicamentos para buscar paz y calma? siguiendo el dicho mecanismo nace un problema mayor, y que es la razón de ser de esta tercera entrega sobre HABLEMOS DE DROGAS, el peligro latente de caer en las redes negras del síndrome de abstinencia, producto del mal uso de ansiolíticos en especial del tipo benzodiazepina que tiende a ser muy adictiva, esta familia de fármacos junto con el clonazepam tienen como finalidad un efecto sedante y se destinan para tratar insomnio o estrés; sin embargo Todas las benzodiazepinas son adictivas, y más aún las que tienen un tiempo de acción corto. Si el efecto de gratificación dura menos tiempo, el paciente es más propenso a volverse adicto a la sustancia, porque cuando desaparezca el efecto volverá a recurrir al fármaco. Y lo que es más grave dentro de esos malos usos esta el consumirlas con la finalidad de conciliar el sueño a pesar de que los ansiolíticos no fueron creados para este fin.

¿Cuándo es el momento y cómo dejarlo?

 El momento es cuando usted sabe que lo que está haciendo esta mal, se debe aprender a manejar los niveles de estrés y ansiedad y mantenerlos a raya, suena como cuento de hadas mas no es imposible. Actualmente el acompañamiento con terapia psicológica es idónea para este tipo de adicciones, por que se centra en el aspecto cognitivo-conductual; en resumen el mecanismo es manejar los comportamientos y situaciones conjuntamente con patrones que conllevan a la ansiedad del paciente, reconocer que se tiene una patología es el primer paso  y el siguiente es el apoyo de un profesional del ramo, un psicoterapéuta capaz de ayudarle a salir de este cuadro.  los especialistas afirman que las principales causas son de índole social, como por ejemplo: la salud o la situación económica, el bullying escolar, o el acoso laboral, o simplemente la sensación constante de que algo malo va a suceder. Científicamente determinar específicamente el origen de comportamientos de ansiedad intensa resulta muy complicado, sin embargo hay ciertos patrones de los que debemos cuidarnos como la proyección obsesiva hacia el futuro, en un afán de anticiparse a los hechos por un miedo constante. Y es en ese futuro incierto donde pueden alojarse  grandes temores  y confusiones donde los más oscuros pensamientos pueden apoderarse de la calma de una persona dejándola incapaz de disfrutar del presente.

Por tanto mis queridos lectores, les invito a reconocer sus miedos y tomarlos por los cuernos, y que sirvan de motor de grandes cosas, la solución es simple, viva el ahora y disfrútelo gratamente, deje por un momento su teléfono inteligente y haga algo que sí sea inteligente vaya y abrace a los suyos y hazles saber cuánto los ama, salga, camine haga ejercicio, aliméntese de la mejor manera, relájese de vez en cuando y disfrute de la vida escuchando quizá su canción favorita y aprecie de la belleza de este mundo antes de que sea demasiado tarde, recuerde que la vida es efímera y que un dia puede ser demasiado tarde… Mejorando su calidad de vida, no habrá miedos, ni ansiedad, ni estrés que puedan con usted, usted decide si quiere ser esclavo de la eterna espiral de la dependencia a los fármacos o poder dormir tranquilo esta noche.

Imagen relacionada

Este artículo fue realizado ante la petición de uno de mis más fieles lectores, uno de mis compatriotas, el Ing. Gastón Guerra, a quien dedico esta entrada. y aprovecho para agradecer su fidelidad. Les invito a todos a seguir su blog de Ingeniería Química en el siguiente enlace: BLOG DE INGENIERÍA QUÍMICA

BIBLIOGRAFÍA

Machado, J. E.; Alzate, V. & et all. (2015) Tendencias de consumo de medicamentos ansiolíticos e hipnóticos en una población colombiana, 2008-2013. Revista Colombiana de Psiquiatría. Vol. 44. Nº 2. Bogotá. Recuperado de: http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0034-74502015000200005&lang=es

Pedrero, M. F. (2012). Anatomía del cerebro: Las células del cerebro. Recuperado de: https://www.onmeda.es/anatomia/anatomia_cerebro-las-celulas-del-cerebro-1478-7.html

McIntosh, J. (2016). ¿Qué es la serotonina? ¿Cuál es su función?.Medical News Today. Recuperado de: https://www.medicalnewstoday.com/articles/291259.php

Rodríguez, A. (2017) Los fármacos contra la ansiedad pueden generar adicción. Diario El Telégrafo. Recuperado de: https://www.eltelegrafo.com.ec/noticias/702/51/los-farmacos-contra-la-ansiedad-pueden-generar-adiccion

Resultado de imagen para dejar adiccion a farmacos

Destacado

Teoría Ácido / Base

Cuadro comparativo de las teorías Ácido/Base.

acidobase.pngPropiedades y características de los ácidos y bases.

Según menciona (Características, 2017), los ácidos y las bases son sustancias que existen en la naturaleza que se distinguen por su pH, es decir por su grado de acidez o alcalinidad (basicidad). Sin Embargo, estas sustancias pueden ser corrosivas, a menudo tóxicas, con numerosas aplicaciones industriales y humanas.

  • Los ácidos: son sustancias con pH, inferior a 7, (pH del agua, considerado neutro) en cuya química figuran comúnmente grandes cantidades de iones de hidrógeno (H+) al añadirle agua. Suelen reaccionar ante otras sustancias perdiendo protones.Imagen relacionada
  • Las Bases: son sustancias de pH superior a 7, que en disoluciones acuosas suelen aportar iones de hidroxilo (OH-) al medio. Suelen ser potentes oxidantes, es decir, absorben protones del medio circundante.

La reacción entre ácido y bases se denomina neutralización y elimina más o menos las propiedades de ambos compuestos, produciendo agua y una sal en su lugar. (PUCP, 2011)

Resultado de imagen para PROPIEDADES ACIDO BASE

a) Características de los ácidos y bases

  1. Nombre y nomenclatura:

El nombre de los ácidos proviene del latín acidus, que significa “agrio”; las bases en cambio, denominadas álcalis, obtienen su nombre del árabe Al-Qaly, que traduce “ceniza”. En estos nombres puede observarse cómo el hombre ha lidiado con ellos desde edades antiguas, tratando de discernir unos de otros a partir de sus características.

La nomenclatura de unos y otros, en la química actual, obedece a lo siguiente: los ácidos suelen llamarse como tales: ácido sulfúrico, ácido clorhídrico, etc. dependiendo de los componentes que acompañen al hidrógeno. Las bases, en cambio, suelen llamarse hidroxilos, haciendo alusión a la molécula OH (óxido de hidrógeno) que estos compuestos presentan. (Características, 2017)

  1. Sabor:

Las bases y los ácidos se distinguen fácilmente a través de su sabor. Las primeras tienen un sabor amargo característico, mientras que los ácidos suelen ser agrios, como el ácido cítrico del limón. Algunas bases menos intensas suelen mostrar sabores semejantes al jabón. (Características, 2017)

Resultado de imagen para sabor acido y base

  1. Conductividad Eléctrica:

Tanto ácidos como bases, en disoluciones acuosas, son muy buenos conductores eléctricos. Ello se debe a su capacidad de generar iones cargados eléctricamente. (Características, 2017)

  1. Solubilidad:

Los ácidos y las bases son solubles en agua, en líneas generales. Sin embargo, muchas bases fuertes como la sosa cáustica (NaOH) liberan una enorme cantidad de energía al hacerlo (reacción exotérmica) por lo que su contacto con este líquido es considerado de riesgo inflamable severo. (Características, 2017)

  1. Reactividad:

Como se ha dicho, los ácidos y las bases se distinguen en que los primeros ceden protones mientras que las segundas absorben protones de las sustancias que los acompañen. Esto significa que suelen reaccionar químicamente de maneras distintas ante sustancias como la materia orgánica, aunque en ambos casos el efecto visible sea de corrosión: tanto ácidos como bases pueden causar quemaduras graves a la piel, por ejemplo. (Características, 2017)

  1. Neutralización:

Al juntar una base con un ácido se produce un efecto de neutralización, donde los protones liberados por el ácido son absorbidos por la base, perdiendo ambos parte (o la totalidad) de sus propiedades químicas. Como subproducto de esta reacción se forma agua y algún tipo de sal, dependiendo del ácido y la base involucrados. Es por ello que la sustancia resultante no es agria ni alcalina, sino salada. (Características, 2017)

  1. Estados Físicos:

Tanto ácidos como álcalis pueden hallarse en cualquiera de los tres estados de agregación de la materia: sólidos (en polvo), gaseosos o líquidos. Las formas gaseosas son las de mayor riesgo industrial y humano, ya que a menudo no pueden ser percibidas antes de inhalarse y hacer daños en el sistema respiratorio. (Características, 2017)

  1. Apariencia:

Los ácidos presentan una consistencia aceitosa, mientras que algunas bases pueden tener un tacto jabonoso. Sin embargo, en estado sólido suelen ser más o menos porosos y frágiles, dependiendo de la sustancia específica. Algunos gases ácidos o básicos son incluso visibles a simple vista. (Características, 2017)

  1. Medición:

Para medir el pH de las sustancias se emplea un tipo especial de papel denominado papel tornasol. Existen varias presentaciones de este papel, en varios colores. La reacción ante un ácido y una base suele ser de la siguiente manera:

Ácido. El papel tornasol azul se vuelve rosado, y el de metilo de anaranjado pasa a un color rojo intenso. La fenolftaleína, en cambio, permanece incolora.

Base. El papel tornasol rojo se vuelve azul o verdoso.

A continuación un breve compendio de indicadores con sus respectivos virajes.

Resultado de imagen para indicadores de acido y base

En el enlace siguiente puedes encontrar un artículo de cómo preparar un indicador ácido base casero en base a col o repollo morado: https://manualdaquimica.uol.com.br/experimentos-quimica/indicador-acido-base-com-repolho-roxo.htm

Resultado de imagen para indicadores de acido y base

10. Aplicaciones:

Tanto bases como ácidos tienen numerosas aplicaciones industriales, a saber:

  • Ácidos. Sus propiedades corrosivas son usadas para eliminar la herrumbre y otras impurezas de las sustancias industriales, como los metales, así como en reacciones químicas que permiten la obtención de electricidad, como en el caso de las baterías. Además, forman parte de fertilizantes y son a menudo empleados como catalizadores en reacciones químicas controladas, para obtener productos específicos en laboratorio.
  • Bases. Se emplean a menudo como desecantes o productos para combatir la humedad ambiental, así como sustancias de limpieza y desinfección, tales como el jabón, el cloro de las piscinas, incluso el amoníaco. También se producen como fármacos para contrarrestar la acidez, como el bicarbonato de sodio, o purgantes como la leche de magnesia.

Constante de acidez y basicidad

Al imaginar la composición molecular de una solución de un ácido débil en agua, se piensa en una solución que contiene • moléculas o iones del ácido; pequeñas concentraciones de iones H3O+ y la base conjugada del ácido, y una concentración muy pero muy pequeña de iones OH, que mantienen el equilibrio de autoprotólisis. (Atkins/Jones, 2012)

Constante de ionización de un ácido o Contante de acidez

Todas estas especies se encuentran en un equilibrio dinámico incesante. De manera similar, para una solución de una base débil, se imaginan las moléculas o iones de la base; pequeñas concentraciones de iones OH y el ácido conjugado de la base, y una concentración muy pero muy pequeña de iones H3O+, que mantienen el equilibrio de autoprotólisis. Dado que los ácidos y las bases conjugadas están en equilibrio en solución, podemos utilizar la constante de equilibrio para la transferencia de protón entre el soluto y el solvente como indicador de sus fuerzas  (Atkins/Jones, 2012). Por ejemplo, para el ácido acético en agua,

CH3COOH(aq) + H2O(l) ↔ H3O+(aq) + CH3CO2 (aq)

la constante de equilibrio es:

111.jpgComo las soluciones en consideración están diluidas y el agua es casi pura, la actividad del H2O puede igualarse a 1. La expresión resultante se denomina constante de acidez, Ka. Si se realiza una aproximación adicional reemplazando las actividades de las especies del soluto por los valores numéricos de sus concentraciones molares, se puede escribir la expresión para la constante de acidez del ácido acético como:

112

El valor experimental de Ka a 25 °C para el ácido acético es 1,8 ×10–5. Este valor bajo indica que sólo una pequeña proporción de las moléculas de CH3COOH donan sus protones cuando se disuelven en agua. Aproximadamente 99 de cada 100 moléculas de CH3COOH pueden permanecer intactas en CH3COOH(aq) 1 M (el valor real depende de la concentración del ácido). En general, la constante de acidez para un ácido HA es:

112.png

A continuación se presenta una tabla de constantes de acidez tabulada a 25ºC: tomada de (Atkins/Jones, 2012):

125.png

Constante de ionización de una base o Contante de basicidad

También puede escribirse una constante de equilibrio para el equilibrio de transferencia de protón de una base en agua. Para el amoníaco acuoso, por ejemplo:

NH3(aq) + H2O(l) ↔ NH4+ (aq) + OH(aq)

la constante de equilibrio es:

112

En soluciones diluidas el agua es casi pura y su actividad puede igualarse a 1. Con esta aproximación, se obtiene la constante de basicidad, Kb. Si se hace la aproximación adicional de reemplazar las actividades de las especies del soluto por los valores numéricos de sus concentraciones molares, se puede escribir la expresión para la constante de basicidad del amoniaco como:

112

El valor experimental de Kb a 25 °C para el amoníaco en agua es 1,8 × 10–5. Este valor bajo indica que normalmente sólo una pequeña proporción de las moléculas de NH3 están presentes como NH4+. Los cálculos en el equilibrio muestran que sólo 1 de cada 100 moléculas está protonada en una solución típica En general, la constante de basicidad para una base B en agua es:

112.png

El valor de Kb nos indica cuán lejos continúa la reacción hacia la derecha. Cuanto menor es el valor de Kb más débil es la capacidad de la base para aceptar un protón. (Atkins/Jones, 2012). Las constantes de acidez y de basicidad suelen informarse como sus logaritmos negativos, mediante la definición.

pKa = –log Ka               pKb = –log Kb

Cuando se piensa acerca de las fuerzas de ácidos y bases debiéramos notar que:

  • Cuanto más débil es el ácido mayor es el valor de Ka y mayor el de pKa.
  • Cuanto más débil es la base, mayor es el valor de Kb y mayor el valor de pKb.

La fuerza de un ácido para donar un protón se mide a través de su constante de acidez; la fuerza de una base para aceptar un protón se mide por su constante de basicidad. Cuanto menores son las constantes, más débiles son las fuerzas respectivas. Cuanto mayor es el valor de pK, más débil es el ácido o la base. (Atkins/Jones, 2012)

126.png

Electrolitos y No Electrolitos

Un electrolito es cualquier sustancia que contiene iones libres, los que se comportan como un medio conductor eléctrico. Debido a que generalmente consisten de iones en solución, los electrolitos también son conocidos como soluciones iónicas, pero también son posibles electrolitos fundidos y electrolitos sólidos. El papel que juegan es el de mantener el equilibrio de los fluidos en las células para que éstas funcionen correctamente. Los electrolitos principales son el sodio, el potasio y el cloro, y en una medida menor el calcio, el magnesio y el bicarbonato. (PUCP, 2011)

PRINCIPIOS

Comúnmente, los electrolitos existen como soluciones de ácidos, bases o sales. Más aún, algunos gases puede comportarse como electrolitos bajo condiciones de alta temperatura o baja presión. Las soluciones de electrolitos pueden resultar de la disolución de algunos polímeros biológicos (por ejemplo, ADN, polipéptidos) o sintéticos (por ejemplo, poliestireno sulfonato), en cuyo caso se denominan polielectrólito) y contienen múltiples centros cargados. Las soluciones de electrolitos se forman normalmente cuando una sal se coloca en un solvente tal como el agua, y los componentes individuales se disocian debido a las interacciones entre las moléculas del solvente y el soluto, en un proceso denominado solvatación. Por ejemplo, cuando la sal común, NaCl se coloca en agua, sucede la siguiente reacción:

NaCl(s) → Na+ + Cl

También es posible que las sustancias reaccionen con el agua cuando se les agrega a ella, produciendo iones. Por ejemplo, el dióxido de carbono reacciona con agua para producir una solución que contiene iones hidronio, bicarbonato y carbonato. En términos simples, el electrólito es un material que se disuelve en agua para producir una solución que conduce una corriente eléctrica.

Clasificación de los electrolitos: electrolito fuertes y electrolitos débiles

Los solutos se clasifican a menudo en tres categorías según las conductividades eléctricas de sus soluciones acuosas. Las sustancias que se disuelven como moléculas y que, en consecuencia, dan soluciones no conductoras se clasifican como no electrolitos. Las sustancias que existen en solución acuosa como una mezcla en equilibrio de iones y moléculas reciben el nombre electrolitos débiles. Muchos ácidos son electrolitos y se ionizan parcialmente. Los electrolitos fuertes existen casi exclusivamente en forma de iones en solución acuosa. Se incluyen aquí casi todas las sales neutras. Por ejemplo, NaCl, así como las bases fuertes NaOH, KOH, etc. En disolución, lo iones migran hacia los electrodos de acuerdo con los signos de sus cargas, de aquí que lo iones positivos y negativos reciban nombres de cationes y aniones, respectivamente. Los electrolitos fuertes suelen estar ionizados ya por completo en estado sólido, de tal modo que al disolverlos o fundirlos no se hace más que liberar los iones de las fuerzas que los mantienen fijos en la red cristalina. (PUCP, 2011)

De manera general:

111

1111.jpg

  1. ¿Qué es y cómo medir la constante de equilibrio?

Equilibrio químico es la denominación que se hace a cualquier reacción reversible cuando se observa que las cantidades relativas de dos o más sustancias permanecen constantes, es decir, el equilibrio químico se da cuando la concentración de las especies participantes no cambia, de igual manera, en estado de equilibrio no se observan cambios físicos a medida que transcurre el tiempo; siempre es necesario que exista una reacción química para que exista un equilibrio químico, sin reacción no sería posible. (Gracia Mora, 2015)

Las sustancias originales (las que se transformarán) se denominan reactantes reactivos y las finales se llaman productos. Todos los procesos químicos evolucionan desde los reactantes hasta la formación de productos a una determinada velocidad hasta que la reacción se completa. En ese momento, la velocidad de formación de los productos es igual a la velocidad de descomposición de éstos para formar nuevamente los reactantes de los que proceden.

Desde ese mismo momento las concentraciones de todas las especies reaccionantes (reactantes y productos) permanecen constantes. Ese estado se conoce con el nombre de equilibrio químico.

El equilibrio químico es un estado en el que no se observan cambios visibles en el sistema. Sin embargo, a nivel molecular existe una gran actividad debido a que las moléculas de reactantes siguen produciendo moléculas de productos, y estas a su vez siguen formando moléculas de productos.

Como ya dijimos, cuando se alcanza el equilibrio químico las velocidades de la reacción directa ( => ) e inversa ( <= ) son iguales y las concentraciones de los reactantes y de los productos permanecen constantes. Para que esto ocurra, la reacción debe suceder a una temperatura presión constantes en un recipiente cerrado en el que ninguna sustancia pueda entrar o salir.

Es importante diferenciar entre el equilibrio en términos de velocidad, en el que ambas velocidades son iguales, del equilibrio en términos de concentraciones, donde éstas pueden ser, y normalmente son, distintas. (Gracia Mora, 2015)

Factores que modifican el equilibrio

Existen diversos factores capaces de modificar el estado de equilibrio en un proceso químico, como son: la temperatura , la presión (afectando al volumen ) y las concentraciones .

La influencia de estos tres factores se puede predecir, de una manera cualitativa por el Principio de Le Chatelier, que dice lo siguiente:

Si en una reacción química en equilibrio se modifican la presión, la temperatura o la concentración de alguna de las especies reaccionantes, la reacción evolucionará en uno u otro sentido hasta alcanzar un nuevo estado de equilibrio. Este principio es equivalente al principio de la conservación de la energía .

Efecto de la temperatura.

Es la única variable que, además de influir en el equilibrio, modifica el valor de su constante. Si una vez alcanzado el equilibrio se aumenta la temperatura, el sistema se opone a ese aumento de energía calorífica desplazándose en el sentido que absorba calor; es decir, hacia el sentido que marca la reacción endotérmica.

Aquí debemos recordar que en las reacciones químicas existen dos tipos de variación con la temperatura: Exotérmica : aquella que libera o desprende calor.

Endotérmica : aquella que absorbe el calor.

Es importante hacer notar que a bajas temperaturas, la reacción requiere más tiempo, debido a que bajas temperaturas reducen la movilidad de las partículas involucradas. Para contrarrestar este efecto se utiliza un catalizador para acelerar la reacción.

Respecto a los catalizadores, se ha determinado que estos no tienen  ningún efecto sobre la concentración de los reaccionantes y de los productos en equilibrio. Esto se debe a que si un catalizador acelera la reacción directa también hace lo mismo con la reacción inversa, de modo que si ambas reacciones se aceleran en la misma proporción, no se produce ninguna alteración del equilibrio.

Efecto de la presión

Si aumenta la presión la reacción se desplazará hacia donde exista menor número de moles gaseosos, para así contrarrestar el efecto de disminución de volumen, y viceversa.

Lógicamente, en el caso de que las cantidades de moles gaseosos sean iguales para cada lado de la ecuación, no se producirán cambios, es decir que el equilibro no se desplazará. También se puede aumentar la presión del sistema sin afectar el equilibrio agregando un gas noble.

Efecto de las concentraciones

Un aumento en la concentración de uno de los reactivos hace que el equilibrio se desplace hacia la formación de productos, y a la inversa en el caso de que se disminuya dicha concentración. Y un aumento en la concentración de los productos hace que el equilibrio se desplace hacia la formación de reactivos, y viceversa en el caso de que se disminuya.

Obtención de la constante de equilibrio

Esta es la ley del equilibrio químico, también llamada ley de acción de masas, para nuestro sistema. Esta ley fue propuesta por los químicos noruegos Cato Maximilian Guldgerg y Peter Waage en 1864, sobre la base de las ideas de Berthollet sobre las reacciones químicas reversibles. La constante 57 que caracteriza el equilibrio se denomina constante de equilibrio, se representa por Kc y su valor no depende de las concentraciones iniciales. La constante de equilibrio depende de la temperatura, para otro valor de la misma la constante sería diferente, por ello hace falta especificar siempre la temperatura cuando se dé un valor de Kc. Para una reacción cualquiera, representada por la ecuación química (Gracia Mora, 2015):

aA + bB ↔cC + dD

si el sistema se encuentra en equilibrio químico, la constante de equilibrio viene dada por:

ssssss.png

Esta constante de equilibrio solo depende de la temperatura a la que se realiza el proceso, y no de las concentraciones de las sustancias que intervienen en el mismo. La ley de acción de masas se puede enunciar de la siguiente manera: En una reacción química el producto de las concentraciones de los productos, en el equilibrio, elevadas a sus respectivos coeficientes estequiométricos, dividido por el producto de las concentraciones de los reactivos, en el equilibrio, elevadas a sus respectivos coeficientes estequiométricos, es una constante a cada temperatura llamada constante de equilibrio.

Diferencias entre reacción ácido-base y equilibrio ácido-base

Cuadro de diferencias
Reacción Ácido/Base Equilibrio Ácido/Base
Conocida también como reacción de neutralización. Se define según las teorías de Arrhenius; bronsted & Lowry y Lewis.
Reacción que ocurre entre un ácido y una base. Se llega al equilibrio una vez que los reactivos dejan de reaccionar, y en este caso cuando el ácido y la base ya se han neutralizado mutuamente sus propiedades.
Su producto es una sal y agua. Ya no se observan cambios físicos en el transcurrir del tiempo.
La mayoría de las veces son exotérmicas. Es necesario exista equilibrio en el sistema A-B caso contrario la reacción ácido base no se daría.
La constante de equilibrio no depende de las concentraciones de que intervienen en el sistema pero si de la temperatura.
Puede ser determinada según la Ley de acción de las masas.
Cuando las concentraciones de los reactantes permanecen constantes se dice que se ha llegado al equilibrio.

 

  1. Ejemplos de pares conjugados

 H2SO4(l) +2NaOH(aq)→ Na2SO4(aq) +2H2O

Ácido: H2SO4; ácido sulfúrico

Base: NaOH; Hidróxido de sodio

Ácido conjugado: H2O; agua

Base conjugada: Na2SO4; sulfato de sodio

 

HNO3(l) + KOH(aq) → KNO3(aq) + H2O

Ácido: HNO3; ácido nítrico

Base: KOH; hidróxido de potasio

Ácido conjugado: H2O; agua

Base conjugada: KNO3; nitrato de potasio

 

HCl (l) + Ca(OH)2 (s) → CaCl2 (aq) + 2H2O

Ácido: HCl; ácido clorhídrico

Base: Ca(OH)2; Hidróxido de calcio

Ácido conjugado: H2O; agua

Base conjugada: CaCl2; cloruro de calcio

 

HSO4 + H2O ⇄ SO4-2 + H3O+

Ácido: HSO4; hidrógeno sulfato

Base: H2O; agua

Ácido conjugado: H3O+ ; ion hidronio

Base conjugada: SO4-2 ; anión sulfato

 

HCN +H2SO4 →H2CN+ + HSO4

Ácido: H2SO4

Base: HCN

Ácido conjugado: H2CN+

Base conjugada: HSO4

 

 

C2H3O2 + H2O → HC2H3O2 + OH

Ácido: H2O

Base: C2H3O2

Ácido conjugado: HC2H3O2

Base conjugada: OH

ESPECIES ANFÓTERAS

Los Anfóteros son sustancias que pueden actuar tanto como ácidos o como bases dependiendo del medio en que se encuentren. Etimológicamente la palabra “anfótero” proviene del griego “amphóteros” que es una variante de “amphi” y significa”ambos”. (Químicas Net, 2015)

 Ejemplos de Anfóteros:

El H2O es llamado de anfótero cuando reacciona con ácidos y actúa como base receptora de protones o cuando reacciona con bases y actúa como ácido donante de protones. Sustancias que pueden actuar, como un ácido o como una base, son llamadas de anfóteras. Siendo así, si combinamos el agua con una base, ella actúa como ácido y viceversa. En la reacción con amoniaco, el agua actúa como un ácido dador de protón, veamos la ecuación que representa el proceso:

NH3(g) + H2O(l) ↔ NH4+ + OH

Notamos que el agua reaccionó con un ácido donante de protones: el NH3 recibe un protón del agua y adquiere la forma NH4+. El agua es una molécula tan versátil hasta consigo misma.

H2O(l) + H2O (l) ↔ H3O+ + OH

Las dos moléculas de H2O reaccionan entre sí: una dona y la otra recibe electrones. El producto es agua protonada (H3O+) e ión OH.

EJEMPLOS DE ESPECIES ANFOTÉRICAS

 Metales anfóteros: algunos metales forman óxidos e hidróxidos con propiedades anfóteras como los siguientes:

  • Óxido de zinc (ZnO) puede actuar de diferente manera si el medio es ácido o básico:
    • Con ácidos → actúa como base neutralizándolos: ZnO + 2H2SO4→ ZnSO4 + H2O
    • Con bases → actúa como ácido neutralizándolos: ZnO + H2O + 2NaOH → Na2[Zn(OH)4]
  • Hidróxido de aluminio (Al(OH)3):
    • Con ácidos → actúa como base neutralizándolos: Al(OH)3+ 3HCl → AlCl3 + 3H2O
    • Con bases → actúa como ácido neutralizándolos: Al(OH)3+ NaOH → Na[Al(OH)4]
  • Óxido de aluminio (Al2O3):
    • Con ácidos → actúa como base neutralizándolos: Al2O3+ 3 H2O + 6 HCl → 2Cl3[Al(H2O)6]
    • Con bases → actúa como ácido neutralizándolos: Al2O3+ 2 NaOH + 3 H2O → 2 NaAl(OH)4
  • Hidróxido de Berilio (Be(OH)2):
    • Con ácidos → actúa como base neutralizándolos: Be(OH)2+ 2HCl → BeCl2 + 2H2O
    • Con bases → actúa como ácido neutralizándolos: Be(OH)2+ 2NaOH → Na2Be(OH)4
  • Óxido de Plomo (PbO):
    • Con ácidos → actúa como base neutralizándolos: PbO + 2HCl → PbCl2+ H2O
    • Con bases → actúa como ácido neutralizándolos: PbO + Ca(OH)2+H2O → Ca[Pb(OH)4]

 Metaloides anfóteros: la mayoría de ellos forman óxidos o hidróxidos con propiedades anfóteras:

  • Boro
  • Silicio
  • Germanio
  • Arsénico
  • Aminoácidos: poseen un grupo amino (NH2) básico y otro carboxílico (COOH) ácido.
  • Proteínas
  • Amoníaco
  • Ion Bicarbonato (HCO3)

 

Bibliografía

Atkins/Jones. (2012). Principios de Química. Barcelona: 5ta Ed. Editorial Médica Panamericana 2012.

Características, E. d. (2017). http://www.caracteristicas.co. Obtenido de https://www.caracteristicas.co/acidos-y-bases/

Gracia Mora, J. (2015). http://depa.fquim.unam.mx. Obtenido de Equilibrio Químico: http://depa.fquim.unam.mx/amyd/archivero/Equilibrio_quimico_23415.pdf

Kotz, J., Treichel, J. R., & Townsend , D. (2015). Acids and Bases: The Arrhenius Definition (Ácidos y bases: definición de Arrhenius). En Chemistry and Chemical Reactivity, Instructor’s Edition (Química y reactividad química, edición del profesor) (págs. 234-237). Stamford: 9th ed. Cengage Learning.

Méndez, Á. (19 de 05 de 2010). La Guía 2000. Obtenido de Ácido-base, según Lewis: https://quimica.laguia2000.com/conceptos-basicos/acido-base-segun-lewis

PUCP. (2011). Química General. Obtenido de corinto.pucp.edu.pe: http://corinto.pucp.edu.pe/quimicageneral/contenido/361-teorias-acido-base.html

Químicas Net. (11 de 2015). http://www.químicas.net. Obtenido de http://www.quimicas.net/2015/11/ejemplos-de-anfoteros_21.html

 

 

Destacado

Poema-Alquimia

Solo es esencia, un sorbo intenso, luz, luna y tierra, que conjuga los elementos, los instantes del ayer, el elixir de tu pelo, aquellas gotas de lluvia, y la magia de tus dedos. Solo es materia, mortal necesidad, y la hiel de la mentira para crear el brebaje, el bálsamo perfecto, la pócima alquimista, que […]

a través de Alquimia — Letras & Poesía

Destacado

USO DEL GALIO EN PIRÓMETROS

     El pirómetro es un método de medición sin contacto similar al termopar usado típicamente para medir temperaturas muy elevadas emitidas por un cuerpo en el rango en el que se manifiestan los efectos de radiación térmica. Así lo afirma (Ordóñez, 2009). Son fabricados de un semiconductor tipo-p, se dopan con impurezas de elementos del grupo anterior, el Grupo III-A de elementos con 3 electrones de valencia, como boro (B), aluminio (Al), galio (Ga) o indio (In). (Giordano, 2008). En el caso particular del Galio sus usos son diversos, van desde las curaciones dentales, semiconductores para rectificadores, transistores, fotoconductores, fuentes de luz diodos de láser, aparatos para refrigeración, fabricación de espejos y espejos industriales y finalmente termómetros de alta temperatura (pirómetros) debido a su bajo punto de fusión (28.56ºC) así lo manifiesta (Enciclopedia de tareas , 2016)

Imagen relacionada
TERMÓMETRO INFRARROJO DT-8858 (PIRÓMETRO)

Por ejemplo:

  • El arseniuro de galio se usa para convertir la electricidad en luz coherente (láser).
  • El galio se utiliza para la detección de neutrinos solares.
  • El galio es utilizado en aparatos de medida de temperatura (600 a 1200 ºC en estado líquido) y en materiales magnéticos.

Otros usos:

  • El uso principal del galio es en semiconductores donde se utiliza comúnmente en circuitos de microondas y en algunas aplicaciones de infrarrojos. También se utiliza en para fabricar diodos LED de color azul y violeta y diodos láser.
  • El galio se usa en las armas nucleares para ayudar a estabilizar el plutonio.
  • Se puede utilizar en el interior de un telescopio para encontrar neutrinos.
  • El galio se usa como un componente en algunos tipos de paneles solares.
  • También se utiliza en la producción de espejos.
  • El galinstano que es una aleación de galio, indio y estaño, se utiliza en muchos termómetros médicos. Este ha sustituido a los tradicionales termómetros de mercurio que pueden ser peligrosos. Actualmente se encuentra en proceso de investigación la sustitución con galio del mercurio de los empastes dentales permanentes.
  • El galinstano se puede aplicar al aluminio de modo que pueda reaccionar con el agua y generar hidrógeno.

También tiene muchas aplicaciones médicas. Por ejemplo, las sales de galio se usan para tratar a personas con exceso de calcio en su sangre. Los isótopos de galio se utilizan en medicina nuclear para explorar a los pacientes en ciertas circunstancias.

REFERENCIAS Y LINKOGRAFÍA:

Ordóñez, O. (2009). webdelprofesor.ula.ve. Obtenido de: http://webdelprofesor.ula.ve/ingenieria/oscaror/CursosDictados/web%20instrumentacion%20industrial/1%20transductores%20para%20procesos%20industriales/libro%20pdf/CAP%205%20Medicion_temperatura_2009.pdf

Enciclopedia de tareas. (2016). /www.enciclopediadetareas.net. Obtenido de: http://www.enciclopediadetareas.net/2016/10/usos-del-galio-elemento-quimico.html

Destacado

El Hidruro de Litio y su papel en la vida cotidiana.

 

     El hidruro de litio es un compuesto inorgánico con fórmula LiH, generalmente de color grisáceo, es una sal obtenida a partir de una reacción de litio fundido con gas hidrógeno en condiciones de alta presión y alta temperatura. Se caracteriza por ser un sólido inflamable y muy reactivo con el agua, de todos los hidruros, el litio es el catión más ligero posible, puesto que el catión hidronio reaccionaría violentamente con el hidruro para formar di hidrógeno, y no se conocen compuestos estables de helio. Una aplicación del hidruro de litio es la batería de ion de litio también conocida como batería Li-Ion, que es un dispositivo diseñado para almacenamiento de energía eléctrica que emplea como electrolito una sal de litio donde consigue los iones necesarios para la reacción electroquímica reversible que tiene lugar entre el cátodo y el ánodo. El ánodo suele ser de grafito, cátodo una aleación de litio (LiFPO4, LiCoO2, LiMn2O4), el electrolito una sal de litio en un disolvente orgánico Y un separador donde generalmente es un polímero poroso. Las propiedades de las baterías de Li-ion ha permitido la generación de pequeños acumuladores de energía adaptados a las aplicaciones de la industria electrónica de gran consumo.

El hidruro de litio (LiH) es un compuesto químico de litio e hidrógeno. Es un sólido cristalino incoloro, aunque las muestras comerciales presentan aspecto grisáceo. Esta sal inorgánica está formada por cationes litio Li+ y aniones hidruro H, y, como es característico de los hidruros salinos, o iónicos, tiene un alto punto de fusión, de 689 °C. Por la extraordinaria ligereza de sus iones, que resulta en una masa molecular de aproximadamente 8, su densidad es de 780 kilogramos por metro cúbico (kg/m3), la más baja de los compuestos salinos. Tiene una capacidad calorífica estándar de 29,73 J/mol.ºK con una conductividad térmica que varía con la composición y la presión (desde al menos 10 hasta 5 W/mK a 400 K) y disminuye con la temperatura. (Nuffiel, 2004)

El anión hidruro en general es muy reactivo frente al aire, al agua y a agentes oxidantes; un catión duro y poco electrón-atrayente como el litio no puede darle la relativa estabilidad que se encuentra, por ejemplo, en el hidruro de zinc. Así, el hidruro de litio es un sólido inflamable y muy reactivo con el agua, produciendo el corrosivo compuesto hidróxido de litio, así como hidrógeno gaseoso. (Nuffiel, 2004)

OBTENCIÓN.-

Se produce por reacción de litio fundido con gas hidrógeno en condiciones de alta presión y alta temperatura. (Bravo, 2007)

2 Li(l) + H2(g) →   2 LiH(s)

MÉTODOS DE OBTENCIÓN.-

No se encuentra libre en la naturaleza. Se encuentra, formando compuestos, cerca de rocas ígneas y en las aguas de algunos manantiales. (Bravo, 2007)

  • Se obtiene por electrólisis de cloruro de litio, LiCl, fundido (P. F. 613 ºC).
  • Se obtiene por electrólisis de una mezcla de cloruro de litio, LiCl, (45 %) y de cloruro de potasio, KCl, (55 %).

APLICACIONES Y USOS.-

El hidruro de litio, LiH, tiene numerosos usos: (Sharpe, 2010)

  • Como precursor para la síntesis de hidruro de litio y aluminio (LiAlH4).
  • Generadores de hidrógeno.
  • Almacenamiento de hidrógeno.
  • Refrigerante como blindaje en reactores nucleares.
  • Fabricación de cerámica.
  • Agente reductor. (redox)

De todos los hidruros, el litio es el catión más ligero posible, puesto que el catión hidronio reaccionaría violentamente con el hidruro para formar di hidrógeno, y no se conocen compuestos estables de helio. Puesto que los hidruros de berilio BeH2 y boro B2H6, también muy ligeros y de estequiometria más favorable, son covalentes, el hidruro de litio tiene el más alto contenido de hidrógeno en porcentaje en masa de los hidruros salinos o iónicos. El contenido en hidrógeno del LiH es, por ejemplo, tres veces mayor que el de NaH (aunque su estequiometría es idéntica), lo cual hace que el LiH sea de interés para el almacenamiento de hidrógeno. El compuesto se utilizó en 1967, en el LEX ONERA, en forma de un combustible en grano para cohetes híbridos, denominado Lithergol hipergólico.

Batería de ion de litio

La batería de iones de litio, también denominada batería Li-Ion, es un dispositivo diseñado para almacenamiento de energía eléctrica que emplea como electrolito una sal de litio que consigue los iones necesarios para la reacción electroquímica reversible que tiene lugar entre el cátodo y el ánodo. Las propiedades de las baterías de Li-ion, como la ligereza de sus componentes, su elevada capacidad energética y resistencia a la descarga, junto con el poco efecto memoria que sufren o su capacidad para funcionar con un elevado número de ciclos de regeneración, han permitido diseñar acumuladores ligeros, de pequeño tamaño y variadas formas, con un alto rendimiento, especialmente adaptados a las aplicaciones de la industria electrónica de gran consumo. Desde la primera comercialización de un acumulador basado en la tecnología Li-ion a principios de los años 1990, su uso se ha popularizado en aparatos como teléfonos móviles, agendas electrónicas, ordenadores portátiles y lectores de música. (Rojas, 2014)

Brevemente recordamos como una celda de una batería de ion-litio constan de:

Resultado de imagen para Funcionamiento y partes de una batería ion-litio

El ánodo; suele ser de grafito

  • El cátodo; una aleación de litio (LiFPO4, LiCoO2, LiMn2O4)
  • El electrolito; una sal de litio en un disolvente orgánico (un polímero en las baterías de polímero de litio)
  • Y un separador; generalmente un polímero poroso

Estos son los principales componentes además del envase, los terminales, aislantes y otros elementos de seguridad. Las celdas usadas pueden ser cilíndricas o prismáticas. En ambos casos se trata de un sándwich enrollado del ánodo, el cátodo y el separador, a los que después se les añade el electrolito.Resultado de imagen para batería ion-litio gif

Imagen relacionada

Durante la carga el litio se desplaza desde el cátodo hasta el ánodo. Al descargarse lo hace en el sentido contrario. Estos procesos van acompañados de reacciones químicas de oxidación y reducción con sus correspondientes balances de electrones. También se producen otras reacciones químicas de las que hablamos en esta entrada.

 

Resultado de imagen para Celdas de una batería ion-litio
Celdas de una batería ion-litio

Conclusiones:

Se determinó que el hidruro de litio al ser un compuesto covalente, el Li no le da una estabilidad al hidruro, es decir, es muy reactivo con el aire, agua y agentes oxidantes, produciendo hidróxido de litio con alta cantidad de dihidrógeno gaseoso. Así pues sus diversas aplicaciones en la industria para el desarrollo de generadores de hidrógeno y almacenamiento de hidrógeno.

Al analizar sus aplicaciones se ha concluido que una de las utilizadas es en las baterías de litio ya que es un dispositivo ligero para el almacenamiento de energía eléctrica y su resistencia a la descarga, donde se encuentra dos electrodos inmersos en un líquido conductor, este conjunto de elementos  forman celdas y la combinación  de estas  forman la batería, esto activa una reacción química que provoca la circulación de partículas ionizadas de un electrodo a otro y se produce energía eléctrica. Se utiliza especialmente en la industria de la electrónica como en celulares, laptops entre otros.

Bibliografía

Bravo, A. (2007). Tabla periodica en espiral y propiedades zonales. Buenos Aires: Editorial Reverté.

Nuffiel. (2004). Química, Libro del Alumno I. Barcelona: Editorial Reverte.

Rojas, D. (11 de Mayo de 2014). Secura.me. Obtenido de http://www.securamente.com/baterias-de-li-ion-ventajas-desventajas-y-mantenimiento/

Sharpe, A. (2010). Quimica Inorganica. Bogota: Editorial Miticos S.A.

 

Destacado

La microcirculación y el sistema linfático: intercambio de liquido capilar, líquido intersticial y flujo linfático.

  1. 1. La microcirculación y el sistema linfático: intercambio de liquido capilar, liquido intersticial y flujo linfático.
  2. 2. INTRODUCCIÓN • Principal objetivo tiene lugar en la microcirculación: es el transporte de nutrientes hacia los tejidos y eliminación de los restos celulares mediante el transporte celular • Las arteriolas se encargan de controlar el flujo sanguíneo hacia cada territorio tisular. Las paredes de los capilares son muy finas, construidas con una capa de células endoteliales muy permeable por lo que el agua los nutrientes de las células y los restos celulares pueden intercambiarse con rapidez y fácilmente entre los tejidos y la sangre circulante • La circulación periférica de todo el organismo tiene alrededor de 10.00 millones de capilares
  3. 3. ESTRUCTURA DE LA MICROCIRCULACIÓN Y DEL SISTEMA CAPILAR
  4. 4. ESTRUCTURA DE LA PARED CAPILAR 0.5µm externo 4-9µm interno
  5. 5. ESTRUCTURA EN LA MEMBRANA CAPILAR
  6. 6. TIPOS ESPECIALES DE OROS EN LOS CAPILARES DE ALGUNOS ÓRGANOS • 1.Capilar Continuo En el cerebro, estrechas ( H2O,CO2 y O2) • 2.Capilar sinusoide en el hígado todas las sustancias disueltas en el plasma incluidas proteínas plasmáticas pueden pasar de la sangre a los tejidos hepáticos. • 3.Los poros de las membranas capilares gastrointestinal • 4.Capilar fenestrado. En los penachos glomerulares del riñón se abren numerosas membranas ovales denominadas fenestraciones que atraviesan en todo su trayecto a las células endoteliales por lo que pueden filtrarse cantidades enormes de moléculas pequeñas e iones a través de los espacios situados entre las células
  7. 7. FLUJO DE SANGRE EN LOS CAPILARES: VASOMOTILIDAD • Vasomotilidad: contracción intermitente de las metaarteriolas y esfínteres precapilares. • Regulación • -Concentración de oxígeno en los tejidos. • Cuando la velocidad de utilización de oxígeno por el tejido es mayor, se activan los periodos intermitentes del flujo sanguíneo capilar más a menudo y la duración de cada período de flujo es mayor.
  8. 8. INTERCAMBIO DE AGUA, NUTRIENTES Y OTRAS SUSTANCIAS ENTRE LA SANGRE Y EL LÍQUIDO INTERSTICIAL • Difusión a través de la membrana capilar • El medio más importante por el cual se transfieren las sustancias entre el plasma y el líquido intersticial es la difusión. • La difusión es consecuencia del movimiento térmico de las moléculas de agua y de otras sustancias disueltas en el líquido.
  9. 9. LAS SUSTANCIAS HIDROSOLUBLES DIFUNDEN SÓLO A TRAVÉS DE LOS POROS INTERCELULARES DEN LA MEMBRANA CAPILAR
  10. 10. EFECTO DEL TAMAÑO MOLECULAR SOBRE EL PASO A TRAVÉS DE LOS POROS. • Por lo tanto la permeabilidad de los poros del capilar para distintas sustancias varía según sus diámetros moleculares.
  11. 11. EFECTO DE LA CONCENTRACIÓN EN LA VELOCIDAD NETA DE DIFUSIÓN A TRAVÉS DE LA MEMBRANA CAPILAR
  12. 12. INTERSTICIO Y LÍQUIDO INTERSTICIAL • El intersticio contiene dos tipos principales de estructuras sólidas
  13. 13. GEL EN EL INTERSTICIO
  14. 14. LÍQUIDO EN EL INTERSTICIO

 

Destacado

Usos y Aplicaciones de los Éteres, Epóxidos y sulfuros.

ÉTERES Y EPÓXIDOS

Definición: Los éteres son el producto de la unión de dos radicales alquílicos o aromáticos a través de un puente de oxígeno -O-; es decir de manera general y según menciona (Ardila, 2013) los éteres son compuestos que tienen un átomo de oxígeno unidos a dos radicales hidrocarbonados. La mayoría de los éteres son líquidos volátiles, ligeros e inflamables, solubles en alcoholes debido a tener una gran similitud en su estructura; son compuestos inertes y estables desde el punto de vista químico. Por sus radicales pueden clasificarse como:

  • Alifáticos: R-O-R, siendo ambos R radicales alquílicos.
  • Aromáticos: Ar-O-Ar´, siendo Ar y Ar´ radicales arílicos.
  • Mixtos: R-O-Ar, posee en uno de sus extremos un radical alquílico y en otro un radical arílico.

Adicionalmente y dependiendo de sus radicales, el éter puede ser considerado simétrico si dichos radicales con iguales o asimétrico si sus radicales son distintos; en la Ilustración 1 podrá identificar algunos ejemplos de éteres.

Resultado de imagen para ejemplos de eteres
Ilustración 1 Ejemplos de éteres. Fuente: https://es.wikipedia.org/wiki/Nomenclatura_de_funciones_org%C3%A1nicas_con_ox%C3%ADgeno

 

Son múltiples las aplicaciones que pueden tener los éteres la más utilizada es como solventes orgánicos de aceites y grasas; así como analgésicos. El presente trabajo de investigación profundiza las diversas aplicaciones y usos de los Éteres.

Usos y Aplicaciones Industriales de los Éteres

  1. Disolventes industriales: (Armas, Bolaños , & et all, 2015) mencionan que los éteres son sustancias capaz de disolver gran cantidad de sustancias polares y no polares esto se debe a que poseen puntos de ebullición muy bajos lo que otorga
    Resultado de imagen para Etilen Glicol Etil (EGE) éter
    Ilustración 2 Etilen Glicol Etil (EGE) éter. Solvente de resinas. Fuente: (Produk Perusahaan Tender S.A., 2015)

    cierta facilidad la separación de productos mediante evaporación. Por las características que presenta tanto en sus propiedades químicas como físicas, es empleado principalmente como disolventes para la fabricación de polímeros de celulosa, sin embargo existe cierto nivel de peligrosidad principalmente con el dietil éter por ser inflamables, motivo que ha llevado a las industrias a buscar nuevos disolventes. Los éteres como disolventes son empleados en la síntesis de reactivos de Grignard. Adicionalmente en la industria de acabados y maderas los éteres son empleados como disolventes y catalizadores de resinas y ceras como muestra la lustración 2.

  2. Medio para condensar: uno de los usos más difundidos según (Ardila, 2013) es la utilización de éteres para concentrar ácido acético y otros ácidos, principalmente en procesos químicos que requieren ácido acético en altos niveles de pureza y no precisamente para consumo humano. La utilidad radica en que aumenta la concentración de cualquier sustancia ácida por condensación.
  3. Resultado de imagen para utilización de éteres para concentrar ácido acético y otros ácidos
    Ilustración 3 Condensación de sustancias (ácidos) en éter.
  • Medio de arrastre: para la deshidratación de alcoholes etílicos e isopropílicos. Ya que interactúa con el Hidrógeno del radical hidroxilo, permitiendo su deshidratación. Desde otra perspectiva de arrastres, los éteres son ampliamente usados como medios de arrastre para la extracción de principios activos de plantas y animales(Armas, Bolaños , & et all, 2015), debido a su fácil eliminación como muestra la ilustración 4.

    Imagen relacionada
    Ilustración 4 Mecanismo de  funcionamiento del Soxhlet. Fuente: http://www.chimiamediului.ro/wp-content/poze/soxhlet.jpg
  1. Hacia el año 1842, fueron usados como los primeros analgésicos principalmente el éter di etílico, aunque en la actualidad ha sido sustituido por hidrocarburos fluorados que presentan menos riesgos de exposición.(Armas, Bolaños , & et all, 2015)
  2. Polímeros diversos: los éteres presentan alta resistencia a altas temperaturas pese a que sus puntos de ebullición tienden a ser bajos (Wade, 2004). Esta característica permite que sean retardadores de llama, sin comprometer su fuerza que en términos generales permite que sea utilizado como un retardante de llama. Su estabilidad a la hidrólisis permite su uso en aplicaciones médicas que requieren autoclave así como en procesos que comprenden manipulación de microorganismos autoclavables o mecanismos que incluyan arrastre de vapor, lo que en definitiva los hace claves para la formación de polímeros.

Sus principales representantes son las poliétersulfonas o PES, representadas en la ilustración 5. Este tipo de polímeros son utilizados como termoplásticos donde el producto más popular es el Udel fabricado por la corporación Union Carbide, este se comporta como los policarbonatos siendo muy resistible y estable en altas temperaturas. El uso más frecuente de este tipo de polímeros es la fabricación de émbolos y filtros de jeringa. Según mencionan (Armas, Bolaños, & et all, 2015) este tipo de polímeros presentan una subunidad aril –SO2-arilo lo que identifica como tal una sulfona. Sin embargo su alto costo hace que tengan usos especializados normalmente para reemplazo superior de policarbonatos, recubrimientos e insumos médicos.

xqwscw.png

Ilustración 5 En la parte sup. Estructura del polímero poli éter sulfona. En la zona Inf. Se aprecia filtros de jeringa elaborados con dicho polímero. Fuente: (Interempresas, 2012)

Finalmente cabe mencionar con respecto a las poliétersulfonas que son capaces de formar en conjunto verdaderas membranas que industria son reproducibles y controlables con pequeños poros de hasta 40 nanómetros. Se usan para conducir flujos de sustancias en hemodiálisis, recuperación de aguas residuales, procesamiento de alimentos, bebidas y separación de gases; ya q soportan grandes presiones sin gran deformación en sus poros.

Resultado de imagen para Recubrimiento de un frente de camión con resina de poliester fenolico y fibra de vidrio.

Ilustración 6 Recubrimiento de un frente de camión con resina de poliéter fenólico y fibra de vidrio. Fuente: (Mariano N., 2011)

  • Poliéteres fenólicos: al igual que los anteriores, estos polioxifenólicos, familia de los éteres; son plásticos resistentes a altas temperaturas con la particularidad de ser muy buenos aislantes térmicos y eléctricos por lo que son muy utilizados en planchas de diversos electrodomésticos y automóviles como muestra la ilustración 6.
  1. Éter fenílico: este compuesto presenta alto punto de ebullición a diferencia de otros éteres y no deja de ser estable. Esta característica hace que sea usado como calefactor de fluidos o líquido calefactor en diversas industrias como sustituyente de vapor de agua a presión, principalmente en aquellas donde el vapor de agua puede presentar un riesgo si reacciona con otras sustancias como es el caso de la fabricación de ácidos a escala industrial; dicho de manera simple, cumple la función opuesta a la de un refrigerante, es decir, es un anticongelante. (Armas, Bolaños, & et all, 2015). Se recomienda su almacenamiento en frascos o contenedores plásticos  por evitar su deterioro por la fricción, vibraciones y golpes.

 

  1. Según (Vollhardt, 1994) el tetrahidrofurano o THF por sus siglas es un compuesto orgánico heterocíclico, se presenta como un líquido transparente de baja viscosidad, presenta un olor característico parecido al de dietil éter. Se clasifica como éter siendo uno de los más polares de su grupo. El THF es un solvente dipolar aprótico protofílico (capaz de aceptar protones, dados los pares de electrones no compartidos del átomo de oxígeno que le dan características de base de Lewis), con una constante dieléctrica de 7,6 (a 25 °C). El THF es el análogo completamente hidrogenado del compuesto aromático furano.

                   8.1 APLICACIONES Y USOS

  • Solvente de polaridad de carácter aprótico.
  • Sustituyente del dietil éter cuando se requiere incrementar puntos de ebullición.
  • Usado en procesos de hidroboración de alquenos.
Resultado de imagen para thfResultado de imagen para thf

Ilustración 7 Der. Una representación 3D del THF, Izq. Se muestra el THF comercial como pegamento de tubos PVC. Fuente: (Pérez, 2011)

  • Disolvente para reactivos de Grignard.
  • Disolvente del caucho por lo cual es importante en la industria de polímeros.
  • Disolvente de resinas, plásticos en tintes, pinturas, barnices, pegamentos, recubrimientos.
  • En la industria de alimentos es utilizado en la fabricación de envases.
Imagen relacionada

Ilustración 8 Eter metil ter butilico en gasolinas producidas por Petropar (Paraguay). Fuente: (Grupo AJ Viersi, 2014)

  • Éter Metil terc Butílico: muy toxico para los seres humanos y otros seres vivos, sin embargo tiene un poderoso uso industrial mezclándose con isobutileno y metanol desde los años 80`s se ha usado como aditivo sintético para incrementar o mejorar el octanaje de la gasolina sin plomo(Grupo AJ Viersi, 2014).
  1. Éter Corona: Son los compuestos orgánicos que tienen varios éteres en su estructura y forman un ciclo. Los éteres corona imitan el comportamiento de las enzimas; estos reconocen los iones alcalinos dependiendo del tamaño de su cavidad oxigenada, que atrae la carga positiva del metal. Esto implica que funciona como un catalizador; hace posible algunas reacciones, e incrementa el rendimiento de otros. Son catalizadores de transferencia de fase. Se usan para transferir compuestos iónicos a una fase orgánica o de una fase orgánica a una fase acuosa, Este éter puede usarse para anestesiar garrapatas antes de eliminarlas de un cuerpo animal o humano. La anestesia relaja a la garrapata y evita que mantenga su boca debajo de la piel. (Daiza, 2016)

Resultado de imagen para calcimicina

Ilustración 9 CALCIMICINA usada para enfermedades parasitarias en ganado vacuno. Fuente: (Aguirre, 2018)

Uso de epóxidos en la industria de los alimentos

La mayoría de las sustancias antimicrobianas en los alimentos tienen un efecto más inhibidor que letal, hay excepciones con los óxidos de etileno y propileno. Los epóxidos son ésteres cíclicos reactivos que destruyen todas las formas de microorganismo, incluyendo esporas y virus, es decir, son esterilizantes químicos usados en alimentos de baja humedad y en los materiales de envasado aséptico, para lograr el contacto directo con los microorganismo son utilizados en estado de vapor; después de una exposición adecuada, el epóxido residual no reaccionante se elimina por medio de una corriente de aire (Puello Cabarca, 2016)

  1. Resinas epoxídicas; La polimerización de un epóxido con un dialcohol o difenol produce un poli éter. Las resinas epoxis utilizados en la industria se obtienen por polimerización de la epiclorhidrina en el bisfenol en medio básico. El grado de polimerización (n) depende de la relación epiclorhidrina /bisfenol (con un exceso de epiclorhidrina n aumenta). Con la reacción propuesta en la ilustración 10, se obtiene prepolímeros de PM no muy alto (líquidos viscosos o sólidos) que tienen grupos epoxi terminales y grupos OH en la cadena. Los polímeros se convierten en resinas duras mediante el “curado”. El curado consiste en la polimerización cruzada mediante reactivos bio trifuncionales, llamados endurecedores, que al reaccionar con los grupos epoxi terminales y con los grupos –OH interiores forman puentes entre las cadenas. De este modo se producen, al azar, redes macromoleculares tridimensionales muy resistentes. Los reactivos o endurecedores más utilizados son Dietilentriamina (DETA), Trietilentetraamina (TETA), Anhídrido ftálico.
Resultado de imagen para Reacciones de obtención de prepolímeros epóxidos.

Ilustración 10  polímeros epóxidos.

Las resinas epoxi tienen propiedades técnicas muy valiosas: resistencia química, térmica y mecánica y son buenos aislantes eléctricos. Se utilizan para lacas y esmaltes, para recubrimiento de metales y de pisos de laboratorio y fábricas químicas; por colada, se fabrican piezas eléctricas, y algunas compañías las utilizan, con rellenos de sílice, en sustitución de la porcelana para los aisladores de líneas eléctricas; también se usan para fabricar láminas para circuitos impresos y placas reforzadas con fibras de vidrio. Además, son el adhesivo más eficaz para cerámica, vidrio, metales,etc. (Araldit) y por ello se usan en la construcción y en pequeños dosificadores, en el hogar; en general, el prepolímero y el endurecedor se venden separados y se mezclan en el momento de su aplicación. Es un producto caro y su uso se limita a casos de especial exigencia. Algunas Industrias utilizan tetrabromo-bisfenol como copolímero para obtener resinas epoxi resistentes al fuego. (Yúfera, 1996)

  1. Los alcoholes alílicos se convierten en epóxidos por oxidación con hidroperóxido de terbutilo en presencia de ciertos metales de transición. El aspecto más importante de esta reacción, que se llama epoxidación de Sharpless, es su alta enantioselectividad cuando se hace usando una combinación de hidroperóxido de ter-butilo, isopropóxido de titanio(IV) y tartrato de dietilo. La epoxidación Sharpless se ha adaptado para la preparación, en gran escala, de la hormona sexual (+)-disparlura, que se usa para controlar infestaciones de polilla, y de (R)-glicidol, intermediario en la síntesis de fármacos con actividad cardiovascular, llamados beta-bloqueadores. (Carey, 1997)
  2. En la actualidad en relación con los epóxidos existen diversos estudios que proponen extraer epóxidos de ciertas semillas que contienen estas sustancias para el uso industrial, no precisamente en el campo alimenticio. Por ejemplo la producción de epóxidos provenientes de la soya común con ácido per acético generado in situ mediante procesos de catálisis homogénea. Esta investigación indexada publicada en 2010 propone el uso de aceites vegetales que se ha convertido en una excelente alternativa para la sustitución de productos de origen petroquímico. Los epóxidos obtenidos a partir de estos aceites se utilizan ampliamente como plastificantes y estabilizantes del PVC y como materia prima en la síntesis de polioles para la industria del poliuretano. Este trabajo presenta la obtención del epóxido de soya utilizando un catalizador homogéneo en un reactor agitado mecánicamente, a condiciones isotérmicas. Se obtiene como mejor resultado un contenido máximo de oxígeno oxirano de 6,4 %, usando concentraciones de peróxido de hidrógeno (25%de exceso molar), ácido acético (5% p/p) y ácido sulfúrico (2% p/p) a 80°C.(Boyacá & Beltrán, 2010)

81128.jpg

Ilustración 11 Epóxidos recuperados de la soya. Imagen tomada de (Boyacá & Beltrán, 2010)

Aplicaciones industriales de compuestos sulfurados (Tioéteres)

Resultado de imagen para Composición química del vino.

Ilustración 12 Composición química del vino. Fuente: (DeVinoenVino, 2016)
  • Adsorción de azufrados del petróleo utilizando nanopartículas de oro soportadas en fique: de manera general se sabe que el petróleo presenta rachas de azufre presentado en diversas estructuras dado su polimorfismo que representa un 0% a 2% de su composición total en peso, sin embargo su presencia causa verdaderos problemas en las refinerías por lo que se requiere sean retirados previamente a la refinación petrolera para cumplir con los estándares ambientales requeridos (Armas, Bolaños , & et all, 2015). Los Mercaptanos (H-SR), sulfuros (R-S-R) y polisulfuros (R-S-S-R) son capaces de eliminar rachas de azufre presentes en el petróleo, y su estabilidad permite extraerlos fácilmente por fraccionamiento he hidrotratamiento.
  1. Compuestos azufrados volátiles en vino: estos compuestos azufrados tienen un papel importante en la industria vinícola, debido a que son quienes le dan aroma característico a la sustancia, siempre y cuando sean ligeros por eso se exceptúa el DMS por su nivel tóxico, éstos son simplemente vectores de defectos organolépticos que al superar el umbral de la detección olfativa
Resultado de imagen para Oenococcus oeni

Ilustración 13 https://www.sciencedirect.com/science/article/pii/S0963996917308864

  • confieren notas olfativas agradables al ser humano. (Armas, Bolaños , & et all, 2015). En la ilustración 12 se puede apreciar la composición del vino donde efectivamente se demuestra la existencia de azufre en el vino cuya utilidad es dar su particular aroma, especial los tioles varietales ya que aportan al frescor del vino al contrario el DMS es indicador de mal sabor y reducirlo es el propósito de las vinícolas. Y entornos al costo elevado de vinos sofisticados puede deberse al tratamiento de H2S que se le dé, porque dicho sulfuro de hidrogeno puede tener dos orígenes uno sintetizado en laboratorio no recomendado para vinícolas por costos en comparación a una forma más tradicional de obtención de sulfuro de hidrogeno que es por medio de cepas de levaduras Advantage, Platinum Distinction; mismas que hacen del vino un producto más artesanal y fino; aunque no precisamente más barato; las levaduras forman dicho compuesto a través de procesos metabólicos que transforman compuestos inorgánicos como sulfatos y sulfitos e incluso orgánicos como la cisteína y el glutatión de la uva.(Armas, Bolaños , & et all, 2015)

Referencias Bibliográficas

Aguirre, A. (9 de 04 de 2018). MiSeptiembreRojo. Obtenido de Poliéteres, una historia detrás de los antibióticos: https://miseptiembrerojo.wordpress.com/2018/04/09/polieteres-una-historia-detras-de-los-antibioticos/

Ardila, J. S. (22 de 07 de 2013). quimicaguanenta.blogspot.com. Obtenido de Éteres: http://quimicaguanenta.blogspot.com/2013/07/trabajo-eteres.html

Armas, C., Bolaños , A., & et all. (25 de 02 de 2015). issuu.com. Obtenido de Éteres y compuestos azufrados aplicaciones industriales y reacciones de utilidad en la industria: https://issuu.com/azucena22060/docs/eteres_y_compuestos_azufrados

Boyacá, L. A., & Beltrán, Á. A. (2010). Producción de epóxido de soya con ácido peracético generado in situmediante catálisis homogénea. INGENIERÍA E INVESTIGACIÓN VOL. 30 No. , 136-140.

Carey, F. (1997). Epóxidos, éteres y sulfuros 6°edición. En F. Carey, Química orgánica. (pág. pág 668). Madrid: Prince Hall Andersen.

Copro.com. (2013). copro.com.ar. Obtenido de http://copro.com.ar/Extractor_Soxhlet.html

Daiza, M. (15 de 05 de 2016). ETERES. Obtenido de Usos de los Eteres en la vida Cotidiana: http://ihu8hyygh7yhh.blogspot.com/2016/05/usos-de-los-eteres-en-la-vida-cotidiana.html

DeVinoenVino. (29 de 08 de 2016). @devinoenvino. Obtenido de Bodegas Valdelana: https://twitter.com/devinoenvino

Grupo AJ Viersi. (10 de 03 de 2014). PARAGUAY.COM. Obtenido de Petropar compra combustible con alto potencial cancerígeno: http://www.paraguay.com/nacionales/petropar-compra-combustible-con-alto-potencial-cancerigeno-104082/pagina/2

Interempresas. (2012). http://www.interempresas.net. Obtenido de Filtros jeringa: realizados con membranas de poliestersulfona: https://www.interempresas.net/Laboratorios/FeriaVirtual/Producto-Filtros-jeringa-Serie-G-(Pes)-114321.html

Mariano N. (11 de 07 de 2011). tecnologiadelosplasticos.blogspot.com. Obtenido de Materiales compuestos: http://tecnologiadelosplasticos.blogspot.com/2011/07/materiales-compuestos.html

Pérez, Y. (2011). pe.melinterest.com. Obtenido de http://pe.melinterest.com/?r=site/search&seller_id=242469478&seller_nickname=YOVANAFELICES

Produk Perusahaan Tender S.A. (2015). http://www.indotrading.com. Obtenido de Etilen Glicol Etil Éter: https://www.indotrading.com/product/ethylene-glycol-monoethyl-p386734.aspx

Puello Cabarca, V. (29 de 08 de 2016). http://www.prezi.com. Obtenido de Epóxidos y sus aplicaciones Industriales: https://prezi.com/lboblu9t7r8y/epoxidos-y-sus-aplicaciones-industriales/

UrbinaVinos S.A. (7 de 3 de 2016). urbinavinos.blogspot.com. Obtenido de Técnicas de Control Microbiológico en Enología: http://urbinavinos.blogspot.com/2016/03/tecnicas-de-control-microbiologico-en.html

Vollhardt, P. K. (1994). Química Orgánica. Barcelona: Omega S.A.

Wade, L. G. (2004). Química Orgánica. Barcelona: McGrawHill.

Yúfera, E. (1996). Química orgánica básica y aplicada: de la molécula a la industria.Páginas 377-379. Obtenido de https://books.google.com.ec/books?id=4eX-mdTjyHcC&pg=PA367&dq=epoxidos+aplicaciones&hl=es&sa=X&ved=0ahUKEwiYkvGSl-jaAhWS0FMKHQU4AY0Q6AEINTAD#v=onepage&amp;

 

Destacado

ALUMBRES Y MORDIENTES

ALUMBRES

Piedra de alumbre
Ilustración 1 Alumbre de potasio. Fuente https://inzitan.blogspot.com/2014/07/cosas-que-si-funcionan-alumbre-de.html

El alumbre es un compuesto químico resultado de la unión de dos sales dobles hidratados; donde el sulfato más usado para la formación de diferentes tipos de alumbres es el sulfato de aluminio. La forma más común de alumbre es aquella compuesta por dos sulfatos y agua. Todos los compuestos que se corresponda con la fórmula empírica AB(SO4)2·12H2O es considerado un alumbre.

 

Los alumbres se forman fácilmente, en general se disuelve sulfato de aluminio en agua para luego agregar el sulfato de otro elemento. La evaporación del agua cristaliza la solución formando el alumbre. La mayoría de los alumbres tienen un efecto astringente y un sabor ácido. Son incoloros, inodoros y se encuentran generalmente en forma de polvo blanco cristalino.

Uno de los alumbres más conocidos es el alumbre potásico o alumbre de potasio cuya fórmula química es KAI(SO4)2 y es formado naturalmente dentro de varios minerales como, por ejemplo, en la calcantita, en la alunita y en la leucita de las cuales se puede obtener cristales de alumbre luego de ser tratadas con ácido sulfúrico. El alumbre potásico es uno de los tipos de alumbres que usamos diariamente y es un sulfato de aluminio potásico; se encuentra en el bicarbonato de sodio que usamos para cocinar. También es usado para la purificación del agua, en los productos de afeitado y tratamiento de pieles. El alumbre de potasio también es conocido en forma de piedra llamada también piedra de alumbre, cristal de alumbre o mineral de alumbre y es conocido como un desodorante natural (Graus, 2013).

MORDIENTE

Resultado de imagen para mordientes
Ilustración 2: Mordiente de cochinilla. Fuente: https://desarrollorurallanzarote.wordpress.com/2010/08/22/el-tenido-solar-con-cochinilla-de-lanzarote/

Los mordientes, aunque no son colorantes, tienen gran importancia en algunas técnicas de tinción. Los mordientes intensifican la tinción porque aumentan la afinidad de la célula por el colorante. También se pueden utilizar para producir un engrosamiento de ciertas estructuras celulares externas, como los flagelos, que debido a su delgadez no podrían ser visualizados de otra forma (Flores, 2012).

BIBLIOGRAFÍA: 

Flores, Y. (2012). Tinciones Usadas en Microbiología. Obtenido de Microbiología: http://realisaciondeanalisis.blogspot.com/2012/06/tinciones-usadas-en-microbiologia.html

Graus. (2013). Significado del Alumbre. Obtenido de Significados: https://www.significados.com/alumbre/

 

Destacado

Uso del bórax como ablandador de agua

Resultado de imagen para uso de borax como ablandador de agua

Ilustración 1 Uso doméstico del Bórax. Fuente (https://ygritte.wordpress.com/2011/03/10/detergente-lavadora-casero/)

Es importante mencionar que se conoce como agua dura a aquella que posee un contenido alto de minerales disueltos en ella que por lo general son calcio y magnesio así afirma (Wikishow, 2008). Estos minerales dejan depósitos que pueden obstruir los desagües, manchar los cristales y los azulejos, evitar que el jabón genere espuma y dejar residuos en el cabello y la piel. Por lo tanto, es importante en el uso doméstico el ablandamiento del agua dura y un mecanismo de acción podría ser usando bórax como ablandador para potenciar el uso de detergentes, se usa como agente activo para desinfección de baños y zonas de alta contaminación biológica, al ablandar el agua con bórax se mejora la eficiencia de la limpieza.

MODO DE EMPLEO

Añadir bórax directamente al agua con el jabón o detergente que se desea incrementar su efectividad. Sea para uso de limpieza como jabón o detergente de ropa, su función es impedir que la cal interactúe con el detergente ayudando a generar espuma. Actualmente los detergentes posen contenidos de bórax por su efectividad para potenciarlo.

¼ parte de bórax + 2/4 partes de detergente + ¼ parte de bicarbonato de sodio = ablandador y potenciador detergente

De manera  más formal y técnica podemos entender que el agua dura  puede ser ablandada por diversos métodos. A continuación les dejo un hermoso video que explica detalladamente cómo eliminar la dureza del agua.

 

Bibliografía

Wikishow. (2008). es.wikihow.com. Obtenido de https://es.wikihow.com/ablandar-el-agua-dura

Destacado

Esmeralda y amatista piedras preciosas del grupo 13 de los elementos de la tabla periódica

  • ESMERALDA

     Resultado de imagen para esmeralda

     La esmeralda es un tipo de silicato de berilo, siendo su sistema cristalino el Trigonal y hexagonal. Su color se debe a que en su composición química está presente el cromo y el vanadio. Las esmeraldas se encuentran normalmente en minas a profundidades medias. Tiene una textura dura y su índice de dureza en la escala de Mohs es ocho, siendo esta escala del uno al diez. La piedra preciosa con más dureza en la escala de Mohs es el diamante, siendo su índice de dureza 10. Su rareza y la alta estima que siempre se ha tenido a la esmeralda se debe, además de a su extraordinario color verde, a que es la única piedra preciosa de este color que se encuentra en la naturaleza que es cristalina (Ramos, 2015).

  • AMATISTA

Resultado de imagen para amatista

     El cuarzo tiene como fórmula molecular SiO2 y presenta la siguiente composición (peso molecular de la fórmula empírica dividido por las sumas de los pesos atómicos de cada elemento para obtener el porcentaje de cada uno de ellos): 46.74 % Si y 53.26 % O.

El color del cuarzo se debe a la presencia en su estructura de lo que llamamos impurezas, aunque estás se encuentran en muy pequeñas cantidades. Así, los siguientes elementos originan los siguientes colores: lechoso = gotas gaseosas; rosado = manganeso/titanio; Ahumado = radioactividad natural; Citrino = hierro coloidal; Amatista = óxido de hierro, etc. La amatista es un mineral que aparece cristalizado muy frecuentemente bajo la forma de prisma hexagonal, terminado en 2 romboedros, que simulan una bipirámide hexagonal y en las que las caras del prisma suelen estar estriadas horizontalmente. También son frecuentes las formas compactas y masivas. Si en las caras del prisma aparece un trapezoedro, éste determina la simetría real del cristal, de forma tal que si el trapezoedro queda en posición superior-derecha respecto a una cara del prisma (visto desde el frente), el cristal es dextrógiro y si queda en posición superior-izquierda, es levógiro. Es un mineral no exfoliable, de fractura concoidea, y de gran variedad de tonalidades.

     El color de la amatista, que es debido a la presencia de hierro en su estructura, varia de tonalidades malvas claras a violeta oscuro, casi púrpura. Si la calentamos a temperaturas entre 400º y 500 ºC, su color se transforma en pardo/amarillento, muy similar al que presenta el cuarzo citrino. Al incrementar aún más la temperatura, en torno a los 600º C, se vuelve lechosa (Esteban, 2015).

BIBLIOGRAFÍA: 

Esteban, Á. L. (2015). Cuarzo Amatista. Obtenido de Naturaleza Nazarí: http://www.granadanatural.com/ficha_minerales.php?cod=156

Ramos, J. (2015). Características de las Esmeraldas. Obtenido de Alta Joyeria: http://www.diamantesdecompromiso.com/joyas-boda/la-esmeralda-caracteristicas

Destacado

Síntesis Epistemológica de autores relacionados a la sociedad del conocimiento, las diferentes posturas filosóficas y sociológicas modernas.

HERBERT SPENCER

Resultado de imagen para HERBERT SPENCER

 Ingeniero civil, naturalista, filósofo psicólogo, antropólogo y sociólogo de origen inglés nacido en Derby en 1820 y fallece en Brighton, Inglaterra en 1903. Importante positivista de su país, de formación autodidacta; su principal interés fueron las ciencias y las letras. Promovió el darwinismo social aunque exista controversia. Para su explicación de la organización social utilizó como modelo al organismo biológico, lo que según Spencer, la organización social es un sistema con funciones que  van desde lo más simple hasta lo más complejo y dependerá del desarrollo alcanzado, debido al proceso de evolución natural existirán diferencias estructurales. En el contexto sociológico, Spencer, fue pionero en utilizar  un modelo sistemático para los conceptos de estructura y función.  Su vida dedico al estudio y elaboración de un sistema evolucionista dentro del campo de la filosofía, este sistema toma a la evolución natural como objeto de estudio que es clave en toda realidad pues para explicar cualquier nivel progresivo: material, biológico social o el que fuera necita obligadamente justificarlo mediante la ley mecánico – materialista. Antes de la publicación de Darwin y Wallace sobre la selección natural de los organismos vivos; específicamente entre 1852 y 1857; Herbert Spencer, publica tres importes artículos que hablan sobre la evolución en las sociedades. Estos artículos son: a) A THEORY OF POPULATION; b) THE DEVALOPMENT HYPOTHESIS. c) PROGRESS: ITS LAW AND CAUSA. La sociedad evoluciona, y cambia de un estado homogéneo indefinido e incoherente, hacia uno más homogéneo, definido y coherente.  En un marco social que abarca política, religión, economía y en todo lo que el ser humano realice. No aceptaba totalmente la teoría de Darwin, más bien adaptaba estos conceptos con los de Lamarck afirmando que los cambios se transmiten de generación en generación. Para él la sociedad no se diferenciaba de ningún organismo vivo ya que esta en sí misma es como si fuera uno, que evoluciona en el tiempo y que va de acuerdo a la ley de vida, (supervivencia del más fuerte) desde cualquier nivel. Opositor al colonialismo afirmando que ningún gobierno colonial es factible si no se transgrede los derechos de los colonos por lo que apoyaba la igualdad y libertad social. Desde la sociología, Spencer cataloga como “la historia natural de las sociedades” a la sociedad.

 

ALFRED REGINALD RADCLIFFE-BROWN

Resultado de imagen para ALFRED REGINALD RADCLIFFE-BROWN

 Radcliffe-Brown  (Sparkbrook, 17 de Enero de1881-24 de octubre 1955), antropólogo inglés, desarrolló el funcionalismo estructuralista, donde se describe la estructura social de pueblos primitivos. Estudió en Cambridge y al ser inspirado por ideas del científico anarquista ruso Piotr Kropotkin autor de “Mutuad Aid” por lo que lo apodaron como “Anarchy Brown”. También tuvo notoria influencia de E. Durkheim que construyó la antropología británica, así dio paso a un método científico en la etnografía. Se lo asoció a la sociología estructuralista, padre del funcionalismo estructuralista  debido a que desarrolló bastas teorías sobre sistemas de parentesco, “teoría de la descendencia”. En Australia Occidental realizó trabajos de campo sobre parentesco y sistemas de totemismo entre los kariera. Publicando así: “The Adaman Islanders” (1922) y “The Social Organization of Australian Tribes” (1930). Fue profesor en diversas ciudades del mundo como Sydney, Chicago y Oxford. Radcliffe-Brown señalo que las instituciones son base de la permanencia del orden social cual si fueran órganos del cuerpo; afirma que las costumbres de un pueblo le dan estabilidad a ese grupo de seres humanos. Fundador del “Instituto de antropología social y cultural de Oxford” estudió particularmente los cambios originados por el colonialismo occidentalista. Muere en Londres con una grave enfermedad sin embargo nunca dejó de escribir. Así lo afirma (Barnard, 1992).

 

CLAUDE LÉVI-STRAUSS

Resultado de imagen para CLAUDE LÉVI-STRAUSS

Nace en Bruselas el 28 de noviembre de 1908 y muere en París el 31 de octubre de 2009. Importante antropólogo y etólogo francés e importante figura de su disciplina en el siglo XX. Le dio  a las ciencias sociales  un enfoque más estructuralista por lo que se considera como fundador de la antropología estructural. Fue fundador junto con André Martinet, Roman Jakobson  y Morris Swandesh la Asociación internacional de lingüística. Fue escritor por excelencia  y muchas obras destacan de su autoría, sin embargo dentro de la asignatura su aporte más importante fueron sus teorías sobre la antropología, las teorías de Lévi-Strauss se encuentran expresadas en su obra “Antropología estructural” publicada en 1958. En donde se establece con notoria influencias de Emilie Durkheim la aplicación del método estructural de las ciencias humanas por lo que sostiene que su análisis debe ser explicativo. Afirma que las diferentes conductas del ser humano, en las diversas culturas, dependen de factores como los esquemas lingüísticos y mitos que denotan patrones sobre la vida humana  y nos permiten entendernos de mejor manera. Sus conocimientos permitieron aislar pensamientos etnocentristas en la investigación etnológica. Recibió diversos galardones  por su tarea de hacer conocimiento además por su connotada participación en la catedra universitaria. Considero a la  relación entre familias cuando estas por compromiso de unen de manera política, estas se entrelazan por un denominado nexo formando así una alianza que puede entenderse como estratégica. Así lo afirma (Charbonnier, 2007).

 

TALCOTT PARSONS
Resultado de imagen para TALCOTT PARSONS

Importante sociólogo estadounidense, propuso la teoría general de la sociedad, que concibe la vida social como una totalidad, con capacidad explicativa y predictiva sobre la vida social. Propone una teoría estructural-funcionalista para corregir su teoría inicial derivando en  dos teorías. La primera la teoría de la acción se basa en cuatro conceptos básicos: implica la existencia de un actor; el acto unidad supone un fin, o un estado futuro hacia el que se orienta la acción; la acción tiene lugar en una situación que entraña dos elementos: las cosas que el actor no puede controlar llamadas condiciones y las que puede controlar llamadas medios. Mientras que en la teoría sistemática se engloba en el sistema cultural, el cual es el que regula las orientaciones, por ende los medios y condiciones, adentro de este sistema está el sistema de la personalidad que es el que ubica al actor y sus necesidades individuales así lo afirma (© Biografías y Vidas, 2016). En general un individuo dentro de un sistema social siempre va tener un estatus y un rol. Todo sistema social tiene necesidades mínimas de satisfacer, estas son los prerrequisitos funcionales, los cuales son necesidades del sistema social en general, es decir los cuatro subsistemas famosos de Parsons, formados por cuatro imperativos funcionales (AGIL) necesarios en todo sistema, que son: la adaptación (A); la capacidad para alcanza metas (G); la integración (I); la latencia (L), un sistema debe proporcionar.

 

THOMAS HOBBES

Resultado de imagen para THOMAS HOBBES

 Hobbes nace el 05 de abril de 1588 y fallece un 4 de diciembre de 1679. Distinguido pensador materialista, autor de la obra de filosofía política y también contribuyente de varios campos de investigación. Dentro del análisis de la vida social y política parte de la consideración de que la sociedad está compuesta por una multiplicidad de seres individuales conducidos por sus pasiones, explicando cómo se produce la transición de este individualismo atomista a la construcción de un cuerpo social artificial, o estado, de carácter absolutista. Se ha considerado su obra política como la fundamentación teórica del absolutismo. Su época se caracterizó por una división política, una que se refiere a la monárquica aduciendo que la legitimidad de ésta venía directamente de Dios y los parlamentarios que afirmaba que la soberanía debía estar repartida entre el rey y el pueblo, Hobbes ante esta situación permaneció neutral y su pensamiento lo enmarcó dentro del materialismo mecanicista. T. Hobbes hablaba del derecho de la naturaleza, es decir la libertad de poder utilizar el poder que cada uno tiene para garantizar la autoconservación, dada cuando una persona no puede seguir con una lucha constante con su entorno social. En su obra Leviatán, señaló el paso de la doctrina del derecho natural a la teoría del derecho como contrato social, donde el hombre es libre pero vive en constante peligro de una guerra de todos contra todos. Al pasar el estado de sumisión del pueblo hacia el gobierno se genera una posibilidad de paz, en lugar de ello se genera un principio de autoridad por parte del mismo (webdianoia, 2015).

  

JEAN-JACQUES ROUSSEAU

 Resultado de imagen para JEAN-JACQUES ROUSSEAU

 Rousseau (Ginegra, 28 de junio de 1712-Emenonville, 2 de julio de 1778) fue un polímata suizo francófono, pensador radical y revolucionario; que aunque es definido como ilustrado presentó profundas contradicciones que lo separaron de los principales representantes de la Ilustración. Sus ideas políticas influyeron en la Revolución francesa, el desarrollo de las teorías republicanas y el crecimiento del nacionalismo. En sus ideas políticas y sociales sostienen que la única forma de gobierno legal es el Estado republicano, donde la totalidad del pueblo legisle; independientemente de la forma de gobierno, dando gran importancia al tamaño del Estado, debido a que su gobierno debe ser más eficaz para evitar la desobediencia a esa voluntad general. Desarrolló un esquema social donde el poder recae sobre el pueblo, siendo posible vivir y sobrevivir sin un líder. En El Contrato Social el poder que rige a la sociedad es la voluntad general que mira por el bien común de todos los ciudadanos. Rousseau hace un estudio de la formación del hombre individual antes de éste “ingresar a la sociedad”, con sus primeras obras que incluyen: Discurso sobre las ciencias y las artes, Ensayo sobre el origen de las lenguas donde identifica los vicios y las virtudes; y Emilio, o De la educación propone encaminar al hombre a la virtud haciendo a un lado los vicios, promovió pensamientos filosóficos sobre la educación, siendo este uno de sus principales aportes en el campo de la pedagogía. Creando un sistema de educación que deja al niña/o, que viva y se desarrolle en una sociedad corrupta y oprimida así lo manifiesta (Martínez, 2012).

 

AUGUSTE COMTE

Resultado de imagen para AUGUSTE COMTE

 Comte distinguido pensador francés nacido un 19 de enero de 1798 y fallece el 5 de septiembre de 1857. Es uno de los personajes promotores del tipo de ideología positivista, por la que recibe el nombre de “Padre francés del positivismo y de la sociología”, Comte se basa en la razón y la jerarquización de la ciencia pues cada ciencia depende de otra, a su vez se fundamenta en la observación empírica dejando de lado teorías abstractas. La humanidad en su conjunto y el individuo como parte constitutiva, que pasa por tres estados sociales diferentes que se corresponden con distintos grados de desarrollo intelectual. Este tránsito de un estado a otro constituye una ley del progreso de la sociedad, necesaria y universal porque emana de la naturaleza del espíritu humano. El estado teológico el hombre busca las causas últimas y explicativas de la naturaleza en fuerzas sobrenaturales o divinas, primero a través del fetichismo posteriormente, del politeísmo y el monoteísmo. En el estado metafísico se cuestiona la racionalidad teológica y lo sobrenatural es reemplazado por entidades abstractas radicadas en las cosas mismas que explican su por qué y determinan su naturaleza. En el científico el hombre busca saber qué son las cosas, sino que mediante la experiencia y observación trata de explicar cómo se comportan, describiéndolas fenoménicamente e intentando deducir sus leyes generales, útiles para prever, controlar y dominar la naturaleza (y la sociedad) en provecho de la humanidad. A este estado de conocimientos le corresponde la sociedad industrial, capitaneada por científicos y sabios expertos que asegurarán el orden social (Diez, 2012).

 

KARL MARX

 Resultado de imagen para KARL MARX

Fenomenal filósofo, intelectual y militante comunista alemán de origen judío, nacido un 5 de mayo de 1818 y fallece lamentablemente un 14 de marzo del 1883. Tras la finalización de sus estudios, escribió para un diario radical, la Gaceta Renana (Rheinische Zeitung), donde comenzó a utilizar conceptos hegelianos de la dialéctica para influir en sus ideas sobre el socialismo donde generó un primer gran impacto. Creía que el socialismo sería, a su vez, finalmente reemplazado por una sociedad sin Estado y sin clases llamada comunismo puro. Junto con la creencia en la inevitabilidad del socialismo y del comunismo. Marx escribió para su propio disfrute obras de ficción como de no ficción. En 1837, completó una novela corta titulada Escorpión y Félix; drama titulado “Oulanem”; y algunos poemas, de los cuales ninguno fue publicado, En 1843, Marx publicó la obra “Sobre la cuestión judía”, en la que hizo una distinción entre la emancipación política y la humana. Examinó además el papel de la práctica religiosa en la sociedad. Ese mismo año publicó “Crítica de la filosofía del derecho de Hegel”, donde se ocupó sustancialmente de la religión, describiéndola como el “opio del pueblo” frase que lo hizo famoso. La obra de Marx ha sido leída de distintas formas. En ella se incluyen obras de teoría y crítica económica, polémicas filosóficas, manifiestos de organizaciones políticas, cuadernos de trabajo y artículos periodísticos sobre la actualidad del siglo XIX. Su ideal más importante: ¿En qué consiste, entonces, la enajenación del trabajo? Primeramente en que el trabajo es externo al trabajador, es decir, no pertenece a su ser; en que en su trabajo, el trabajador no se afirma, sino que se niega; no se siente feliz, sino desgraciado; no desarrolla una libre energía física y espiritual, sino que mortifica su cuerpo y arruina su espíritu. Por eso el trabajador sólo se siente en sí fuera del trabajo, y en el trabajo. La obra más importante de su autoría fue “El Capital”. Así lo manifiesta (Álvarez, 1812-2002)

 

ÉMILE DURKHEIM

 Resultado de imagen para ÉMILE DURKHEIM

 Según (Nisbet, 1974), este importante sociólogo Francés nace el 15 de abril de 1858 y muere el 15 de noviembre de 1917 en París. Estableció formalmente la disciplina académica y, junto con Karl Marx y Max Weber, es considerado uno de los padres fundadores de dicha ciencia. Durkheim creó el primer departamento de sociología en la Universidad de Burdeos en 1895 creó la primera revista dedicada a la sociología, perfeccionó el positivismo que primero había ideado Augusto Comte, promoviendo el realismo epistemológico y el método hipotético-deductivo Así mismo redefinió la sociología como la ciencia que tiene como objeto el estudio de estos hechos, Durkheim propuso el método positivista, ya que pretende estudiar la sociedad como “cosa”, comprobar hipótesis a través de la realidad, por un lado agrega la estadística y por otro lado el razonamiento lógico; con esto contribuye a un método que se basa puramente en la observación de hechos y en el rango de comprobación que puedan tener estos. Utiliza conceptos de las ciencias duras aplicados a las ciencias blandas, permitiendo romper con la historia y la filosofía ya que no tienen ningún referente empírico. Estudiar los hechos sociales como “cosas” no porque éstos sean cosas materiales propiamente dichas, sino por su característica de observables y verificables empíricamente), plantea que pueden ser observados y contrastados por medio del método científico, estableciendo cuatro pasos básicos: Partiendo de la observación de hechos, se pretende que el investigador tome postura si será “participante” o “no participante” se pretende identificar.

 

RALPH LINTON
Resultado de imagen para RALPH LINTON

Considerado como uno de los más destacados antropólogos estadounidenses de mediados del siglo XX. Sus obras “El estudio del hombre” (1936) y “El árbol de la cultura” (1955) son contribuciones fundamentales a la antropología. Linton fijó la distinción entre el estatus y rol. Con respecto a la primera obra citada esta estableció a Ralph Linton como uno de los mayores teóricos de la antropología, particularmente entre los sociólogos que trabajaron fuera de la corriente principal iniciada por Franz Boas. Consecuencia de este reconocimiento fue que Linton obtuviera, en 1937, cátedra de antropología en la Universidad de Columbia que lo perfilo como una eminencia académica. Obtuvo fondos públicos para que se pudieran realizar estudios sobre la aculturación. El realizado sobre siete tribus indias americanas, plasmó en la obra Aculturación en siete tribus americanas, es un ejemplo del trabajo en ese período. El interés de Linton en la corriente antropológica Cultura y personalidad también se expresó en la forma de un seminario que organizó con Abraham Kardiner en el Instituto Psicoanalítico de Nueva York. Posteriormente al periodo de la guerra Linton se movió a la universidad de Yale, un centro para los antropólogos como George Murdock que había colaborado con el gobierno de los Estados Unidos. Enseñó allí a partir la 1946 hasta 1953 y continuó publicando sobre cultura y personalidad. Y durante este período escribió su obra “El árbol de la cultura”, una descripción global ambiciosa de la cultura humana. Murió de complicaciones iniciadas en su viaje a Sudamérica la víspera de Navidad, 1953. Su esposa terminó El árbol de la cultura que se convirtió en un libro de texto popular pos mortem. Así lo afirma (© Biografías y Vidas, 2016).

 

MORRIS GINSBERG

 Resultado de imagen para MORRIS GINSBERG

 Morris Ginsberg afamado sociólogo Litvak-británico, autor de una tesis a Malebranche presenta en sus ideas principales que la responsabilidad social de sociólogos, que vio como la parte del problema de la ética de conocimiento; vio una inminente necesidad de emprender la investigación llena de relaciones entre preguntas del hecho y de valor ante visiones relativistas que mantienen  que los conflictos sociales originarios de las diferencias de la perspectiva moral así nació su obra “La razón y la Insensatez” en naturaleza humana y sociedad, afirma que no se debe creer que la razón y el sentimiento estén en oposición o razón como el esclavo de las pasiones, sino su importancia en motivación de la acción, dirección del sentimiento y coacción; analizó la diversidad de moralejas entre sociedades, grupos e individuos, haciendo una distinción clara entre ese reconocimiento y asunción ética la cual debe. “En la Justicia en la Sociedad”, se descubre si la fuerza es necesaria o puede la meta ser asegurada por persuasión o acuerdo voluntario; puede este ser alcanzado por obligación o su valor que libremente o espontáneamente persigue, esto se aplica en cualquier esfuerzo de distinguirse entre los derechos y deberes que requieren por convicción interior y aceptación libre. El tema la defensa de la disposición liberal de la mente como un desiderátum, la mente liberal aborrece al fanatismo, para contar el coste en términos de felicidad humana y vidas humanas así lo asegura (Austin, 2016).

 

JÜNGER HABERMAS

Imagen relacionada

 Habermas, filósofo y sociólogo alemán, en su obra La Teoría de la acción comunicativa aborda la teoría de la acción y su fundamento racional, a partir de tres pretensiones fundamentales: desarrollar un concepto de racionalidad más allá de los postulados subjetivistas e individualistas de la filosofía y teoría social moderna, elaborar una nueva concepción de la sociedad en dos niveles integrando los paradigmas de sistemas y mundo de la vida, y por último, desarrollar una teoría crítica de la modernidad buscando las respuestas necesarias para retomar su proyecto original. Realiza un análisis de las dos esferas de interacción que le permiten interpretar, la estructura social de la Modernidad. Estas son: “mundo de vida” y “sistema”. La integración social responde a un dominio simbólico y lingüístico que permite a los actores sociales desarrollar procesos comunicativos y discursivos a favor de una mayor realización como personas y ciudadanos, al propiciar un diálogo abierto al “entendimiento” y a los contextos morales y éticos que le sirven de legitimación. La integración sistémica es el resultado de los procesos de intercambio y de mercado, consumo y producción, con los que se intentan inducir las acciones sociales y políticas desde la regularidad de la razón tecno-científica, que en su interés de dominio, reduce significativamente la intersubjetividad que le da  origen y sentido al “mundo de vida”. La crítica de Habermas es terminante: sólo a través de las prácticas de la racionalidad comunicativa es que el proyecto de una sociedad justa y democrática es posible (Garrido, 2011).

 

JOSÉ DE SOUZA SILVA

 Resultado de imagen para JOSÉ DE SOUZA SILVA

José de Souza expresa que bajo la noción de que la humanidad experimenta profundas transformaciones, tipo cualitativo, propone una reinterpretación de las condiciones históricas actuales bajo la luz de esas transformaciones. Las nuevas formas sociales que actualmente vivimos recuerdan que estamos en una sociedad de la información. Donde el emprendedor no es neutral. A partir de un cierto régimen de verdades sobre qué es la realidad y cómo ésta funciona, él toma decisiones y realiza acciones para transformar su contexto. El factor crítico para comprender la naturaleza de un emprendimiento es la visión de mundo que prevalece en el contexto de la innovación. A cada concepción de realidad corresponde un modo de innovación con una filosofía para inspirar y orientar a los emprendedores, para quienes lo social emerge como relevante o no. Históricamente, bajo diferentes visiones de mundo, la humanidad desarrolló distintos paradigmas para asegurar su existencia. Cada paradigma histórico influencia la forma de innovar y emprender de las sociedades. Asumiendo que la humanidad está experimentando otro cambio de época desde los años 60, el emprendedorismo en perspectiva histórica caracteriza la crisis paradigmática del industrialismo; y sintetiza los escenarios globales emergentes y sus implicaciones para los emprendimientos sociales. De la visión contextual del mundo emerge el emprendedor social cuyo espíritu solidario, creatividad intelectual, preocupación social, voluntad política y actitud ética mantienen movilizados su imaginación, capacidad y compromiso para crear “valor colectivo agregado” entre grupos de actores de la sociedad civil que privilegian el bien común (Silva, 2001).

WILLIAM JAMES

Imagen relacionada

 Filósofo y psicólogo estadounidense que desarrolló la filosofía del pragmatismo. Explica el principio del funcionalismo a la psicología, situándola entre las ciencias basadas en el método experimental. James aplicó sus métodos empíricos de investigación a temas religiosos y filosóficos. Exploró cuestiones como la existencia de Dios, la inmortalidad del alma, el libre albedrío y los valores éticos, empleando como fuente directa la experiencia religiosa y moral humana. Se relaciona con una doctrina que él mismo llamó empirismo radical, este filosofo expresa que el pragmatismo es un método para apaciguar las disputas metafísicas que de otro modo serían interminables. Para James la verdad no es una propiedad inherente e inmutable a la idea, sino que es un acontecer en la idea según su verificabilidad basada en ideas y hechos, es decir que, estas ideas cumplen una función como herramientas útiles para el individuo que lo guían en sus elecciones para dirigirse a la realidad de forma satisfactoria y no perjudicial. Desarrollaba este método a partir de un análisis del fundamento lógico de las ciencias para convertirlo en la base de la evaluación de cualquier experiencia. Sostenía que el significado de las ideas sólo puede encontrarse en los términos de sus consecuencias. Si no hay efectos, es que esas ideas no tienen sentido. Siendo un método empleado por los científicos para definir sus términos y para comprobar sus hipótesis, que llevan a predicciones. Las teorías con significado, argumentaba James, son instrumentos para resolver los problemas que se plantean con la experiencia así lo afirma: (Tomás, 2010 ).

 

RICHARD MCKAY RORTY

Imagen relacionada

 Es llamado el renovador de la filosofía estadounidense dentro de la corriente del neopragmatismo, en la que emprendió un revolucionario trabajo que insta a los filósofos a abandonar la búsqueda de verdades absolutas. Apegado a los problemas concretos y diarios de nuestra sociedad, efectuó una crítica moderna a la metafísica y sostuvo que las ideas (la teoría) deben estar siempre al servicio de la acción, lo concreto, y no a la inversa. Se basó en el pragmatismo que sostiene que la importancia de una idea debe ser medida por su utilidad o eficacia para lidiar con un problema dado. Desacraliza el lenguaje de la filosofía y lo empieza a considerar como un lenguaje más, incluso homologándolo con la literatura. Para Rorty y Wittgenstein, los humanos simplemente nos movemos en el lenguaje y en las prácticas sociales que lo generan. Rorty pensaba que el fin de toda investigación debiera ser hacernos más felices permitiéndonos afrontar con más éxito el entorno físico y la convivencia. No obstante sus grandes aportaciones en el campo de la filosofía, consideraba que esta disciplina no puede ni debe ser una actividad primaria y exclusiva, e incluso desacralizó el lenguaje de la misma al considerarlo “un lenguaje más”, homologándolo con la literatura. Entre sus libros clásicos se encuentran Contingencia, ironía y solidaridad, en el que el pensador analizó la autodeterminación del individuo y la posibilidad de implementar una sociedad basada en la equidad, y La filosofía y el espejo de la naturaleza según (Henao, 2014).

 

DAVID HUMEImagen relacionada

Hume sociólogo que constituye una de las figuras más importantes de la filosofía occidental y de la Ilustración escocesa. Él mantiene que el conocimiento se deriva de la experiencia, y es sensible porque los sentidos pueden percibir, siendo la única fuente de conocimiento, que sin ella no se podrían alcanzar los saberes; entonces el conocimiento humano proviene de los sentidos. Los principios esenciales de su pensamiento son el empirista, el ser humano conoce a partir de la experiencia cuando nuestro pensamiento aparente ser capaz de ir más allá, al rebasar esta frontera cae en error. El principio de inmanencia, cualquier dato de la realidad permanece dentro del sujeto, donde el sujeto pierde el contacto con la realidad misma, con los objetos y debe conformarse con tener impresiones sensibles de los mismos. La realidad queda así mediatizada para siempre por nuestros sentidos, llamando a la experiencia percepciones que pueden ser impresiones (más intensas) e ideas (menos intensas). Principio de copia, las ideas no son sino copias de nuestras impresiones, es decir, que nos es imposible pensar algo que no hemos sentido previamente con los sentidos. Principio de asociación de ideas, las ideas no se encuentra aisladas sino que, su naturaleza provoca que se relacionen de modo determinado y ordenado, por las leyes: semejanza, continuidad y causa-efecto. Principio de negación de las ideas abstractas, se niegan ya que son complejas creaciones de la mente humana, que en cuanto se le deja una mínima libertad tiende a generalizar los datos concretos y particulares (David Hume, 2016).

 

JOHN LOCKE

Resultado de imagen para JOHN LOCKE

 Médico y filósofo implicado en la vida política de la Inglaterra del siglo XVII. Iniciador del movimiento filosófico del Empirismo, al rechazar la existencia de las ideas innatas, y de la posibilidad de llegar al conocimiento al margen de la experiencia. Entonces su epistemología se fundamenta en la no creencia o existencia del innatismo y el determinismo, por lo que rechaza la idea absoluta, en favor a la probabilística matemática. Para Locke el conocimiento solamente se alcanza a las relaciones de los hechos, al cómo mas no al por qué. Considera que la única posibilidad de conocimiento se hace a través de la experiencia sensible, negando cualquier posibilidad de conocimiento, como proponía Descartes, con las ideas ignatas. Los pensamientos contienen elementos propios del racionalismo y el mecanismo. Trata la religión como un asunto privado e individual, que afecta solamente a la relación del hombre con Dios, no a las relaciones humanas. En virtud de esta privatización el hombre se libera de su dependencia de las imposiciones eclesiásticas. Locke afirma que la teoría del conocimiento no es un fin en sí misma, sino que se trata de una herramienta para comprender la relación entre los seres humanos y la realidad que nos rodea. No analizamos cómo es la realidad, sino como la conocemos. Así que el conocimiento es limitado ya que nunca es innato, no puede ir más allá de lo que podemos conocer, y sólo podemos tener certeza sobre lo que está dentro de los límites de la experiencia así lo afirma: (Vicente, 2013).

 

JEAN PAUL SARTRE

 Imagen relacionada

El ilustre Sartre fue un exponente del existencialismo y del marxismo humanista. Sartre considera que el ser humano está “condenado a ser libre”, es decir, arrojado a la acción y responsable plenamente de su vida, sin excusas. Concibe la existencia humana como existencia consciente porque es lo que lo diferencia del objeto y un fenómeno subjetivo en el sentido de que es conciencia del mundo y conciencia de sí. El hombre no es otra cosa que lo que él se hace. Éste es el primer principio del existencialismo, donde el  concepto de Dios es una contradicción, asumiendo la muerte de Dios anunciada por Nietzsche. En el ser humano la existencia precede a la esencia, aquello que nos definirá, es lo que construiremos mediante nuestros actos. Por esto el ser humano está condenado a la libertad, por tener en cada momento que elegir y disponer, desde la soledad individual, de todos nuestros recursos para actuar, incluidos también nuestros proyectos de vida fundamentales. La dignidad humana radica en la libertad, el ser humano siempre trasciende su situación concreta, aspira al futuro sin estar determinado por su pasado, se traza metas y construye su ser. En este gesto creador existe el límite referente a su propia posibilidad; donde cabe planificar una vida moral y política; en tanto que establece el esquema de una vida auténtica, que desde la responsabilidad al elegir el proyecto vital compromete también a la comunidad, debe igualmente favorecer formas de organización social fundamentadas en la libertad (Echegoyen, 2009).

 

INVES IMRE LAKATOS

Resultado de imagen para INVES IMRE LAKATOS

Lakatos recoge de Popper los aspectos esenciales del racionalismo crítico: la creencia de que el crecimiento del conocimiento científico es racional, y que la crítica es el vehículo del crecimiento. De Kuhn la importancia de la historia de la ciencia. En la metodología de Lakatos el elemento histórico tiene dos aspectos. La historia interna, es la discusión y confrontación intelectual, en un área específica de las teorías que lo integran. Y la historia externa, las circunstancias psicológicas y sociológicas existentes en la actividad de investigación de los científicos al llevar a cabo la historia interna de un área. Lakatos considera la  falsación como un enfrentamiento en el que, teorías rivales se confrontan con la experiencia; así una es aceptada y la otra es refutada. Plantea una nueva unidad de análisis: el programa de investigación científica (PIC), que consiste en una sucesión de teorías relacionadas entre sí, de manera que unas se generan partiendo de las anteriores. Estas teorías dentro de un PIC comparten un núcleo firme o duro (NF). El núcleo firme está protegido por un Cinturón protector (CP) que consiste en un conjunto de hipótesis auxiliares que pueden ser modificadas por otras nuevas con el objetivo de impedir que se pueda falsar el núcleo firme. Entonces la ciencia era incapaz de alcanzar la “verdad”, pero sugirió que cada nueva teoría era capaz de explicar más cosas que la anterior, y de predecir hechos nuevos que nadie antes ni siquiera se había planteado (ITAM, 2012).

 

KARL POPPER

Resultado de imagen para KARL POPPER

 Popper filósofo y teórico de la ciencia, fue el creador de la corriente epistemológica falsacionismo que consta de comprobar una teoría, significa intentar refutarla mediante un contraejemplo; si no es posible refutarla, dicha teoría queda corroborada, pudiendo ser aceptada provisionalmente, pero nunca verificada.  La tesis central de Popper es que no puede haber enunciados científicos últimos, es decir, que no puedan ser contrastados o refutados a partir de la experiencia. La experiencia sigue siendo el método distintivo que caracteriza a la ciencia empírica y la distingue de otros sistemas teóricos. La racionalidad científica no requiere de puntos de partida incuestionables, pues no los hay. Por lo que propone un método científico de conjetura por el cual se deduce las consecuencias observables y se ponen a prueba. Si falla la consecuencia, la hipótesis queda refutada y debe entonces rechazarse. En caso contrario, si todo es comprobado, se repite el proceso considerando otras consecuencias deducibles. Cuando una hipótesis ha sobrevivido a diversos intentos de refutación se dice que está corroborada, pero esto no nos permite afirmar que ha quedado confirmada definitivamente, sino sólo provisionalmente, por la evidencia empírica. El científico debe proponer audazmente una teoría que luego será sometida a rigurosos experimentos y observaciones. El avance en la ciencia está en falsar sucesivas teorías para así, sabiendo lo que no es, poder acercarse cada vez más a lo que es (Karl Popper “Falsacionismo”, 2009).

 

THOMAS KUHN

Imagen relacionada

Kuhn físico, historiador y filósofo de la ciencia estadounidense, en su teoría kuhniana del cambio científico ocupa un sitio estratégico en la transformación que sufrió la filosofía de la ciencia a partir de los años sesenta, introdujo en el análisis epistemológico el aporte de otras disciplinas como la historia, la sociología y la psicología. Presenta a la ciencia como una estructura cognoscitiva dinámica que surge y se desarrolla dentro de un contexto histórico-social, un paradigma, constituido por un conjunto de valores cognitivos que dependen de la comunidad científica. Consideró a los paradigmas como realizaciones científicas conocidas universalmente, que en un tiempo determinado proporcionan tanto problemas como soluciones a la comunidad científica; determinó un conjunto de prácticas que definieran la disciplina científica en un tiempo específico. En el modelo kuhniano se tiene diferentes disciplinas: la ciencia inmadura, caracterizada por la formación de escuelas de pensamiento que aún no son ciencia porque no tienen un paradigma en común; la ciencia normal, basada firmemente en realidades científicas pasadas y que la comunidad reconoce durante un cierto tiempo como fundamento para prácticas o investigaciones futuras. Se da la crisis científica porque la ciencia normal no se exceptúa de manifestar errores o contradicciones en los modelos científicos, existiendo fenómenos o anomalías que no se podrán explicar, momento en el que se genera una crisis; por consecuente, la aparición de un nuevo paradigma que suplanta al otro mientras que los científicos  se vuelven a otras teorías para poder explicarlas y se buscan nuevas teorías (Sánchez, 2007).

 

PAUL FEYERABEND

Imagen relacionada

Feyerabend basado en pensamientos popperianos, antiempiristas antipositivista y antirelativiste, se basó en la anarquía rechazando las normas universales. Mantiene que las metodologías de la ciencia no han proporcionado reglas adecuadas para guiar las actividades de los científicos, y sugiere que, dada la complejidad de la historia, es muy poco razonable pensar que la ciencia puede y debe actuar de acuerdo con reglas fijas y universales. Ya que tiene una visión demasiado simple de los talentos del hombre  y de las circunstancias que fomentan o provocan su desarrollo. Además es perjudicial a la ciencia porque pasa por alto las complejas condiciones físicas e históricas que influyen en el cambio científico. Hace que la ciencia sea menos adaptable y más dogmática. Feyerabend demuestra que no es aconsejable que las elecciones y decisiones de  los científicos estén obligadas por las reglas establecidas por las metodologías de la ciencia o implícitas en ellas. En su obra Crítica Contra el Método expone una investigación histórica en la cual concluía que no hay un método con principios infalibles, no existe regla sin romperse. Propuso un principio que puede ser defendido bajo cualquier circunstancia y en todas las etapas del desarrollo humano “todo se vale” (La Teoría Anarquista del Conocimiento , 2012).

 

MICHEL FOUCAULT

Resultado de imagen para MICHEL FOUCAULT

 Foucault trata principalmente el tema del poder ya que para él no puede ser localizado en una institución o en el Estado. Habla del subpoder, de “una trama de poder microscópico, capilar”, que es el conjunto de pequeños poderes e instituciones situadas en un nivel más bajo. No existe un poder; en la sociedad donde se dan múltiples relaciones de autoridad situadas en distintos niveles, apoyándose mutuamente y manifestándose de manera sutil. Uno de los grandes problemas que se deben afrontar cuando se produzca una revolución es el que no persistan las actuales relaciones de poder. Pide analizar a niveles microscópicos. Para el autor de la microfísica del poder, el análisis de este fenómeno sólo se ha efectuado a partir de dos relaciones: Contrato y Dominación. El problema del poder no se puede reducir al de la soberanía, ya que, siempre existen relaciones de autoridad que no son proyección directa del poder soberano, sino más bien condicionantes que posibilitan el funcionamiento de ese poder, son el sustrato sobre el cual se afianza. El poder no es un objeto que el individuo cede al soberano, sino que es una relación de fuerzas, una situación estratégica en una sociedad en un momento determinado. Por lo tanto, está en todas partes. El sujeto está atravesado por relaciones de poder, no puede ser considerado independientemente de ellas. El poder entonces no sólo reprime, sino que también produce efectos de verdad, produce saber, en el sentido de conocimiento (Ignacio, 2009).

 

MARTIN HEIDEGGER

Resultado de imagen para MARTIN HEIDEGGER

 Filósofo alemán que expresa en la comprensión heideggeriana que el hombre es el ente abierto al ser,  mantiene una explícita relación de co-pertenencia con él. La forma específica de ser que corresponde al hombre es el “ser-ahí”, en cuanto se halla en cada caso abocado al mundo, lo cual define al “ser-ahí” como ser en-el-mundo”. De esa estructura parte la analítica existencial del Dasein, que en Ser y tiempo juega el papel de ontología fundamental. Para Heidegger el ser del hombre se define por su relación con el mundo, relación cuya forma de ser no consiste en un «comercio» entre sujeto y objeto, o en una teoría del conocimiento que también los implique, sino que es propia de la existencia como «ser-en-el-mundo», y encuentra su fundamento ontológico en el «Cuidado» o «Cura». Estas categorías en rigor, existenciales o existenciarios le sirven para comprender por dónde pasa la diferencia entre una vida auténtica, que reconozca el carácter de «caída» que tiene la existencia, es decir, la imposibilidad de dominar su fundamento, y una vida inauténtica o enajenada, que olvida el ser en nombre de los entes concretos. El “ser ahí” se encuentra “a sí mismo” inmediatamente en lo que hace, usa, espera, evita en aquellas cosas que están a su alcance y que le conciernen”. En definitiva la vida no es más ni menos que la existencia, o sea una configuración final de significados. El ser se es, al ser en el mundo (graphicom.cl, 2011).

 

JACQUES DERRIDA

 Resultado de imagen para JACQUES DERRIDA

 Su pensamiento es conocido como la deconstrucción, el cual es imposible de explicar ya que no se trata de un método, por lo cual no se puede dar normas o pasos para explicar su forma de ser. Es un tipo de pensamiento que critica, analiza y revisa fuertemente las palabras y sus conceptos. En su pensamiento deconstructivista pone en evidencia la incapacidad de la filosofía de establecer un piso estable, sin dejar de reivindicar su poder analítico. La mayoría de los estudios de Derrida exponían una fuerte dosis de rebeldía y de crítica al sistema social imperante. La deconstrucción se relaciona con trayectorias vastas de la tradición filosófica occidental, aunque también está ligada a disciplinas académicas diversas como la lingüística y la antropología con las que polemiza cuando percibe que no participan suficientemente de las “exigencias filosóficas”.  La Deconstrucción  es una estrategia filosófica cuyas reflexiones tienen carácter de argumentos rigurosos con los que invertir las categorías filosóficas tradicionales; si en filosofía occidental toda oposición se presenta como un enfrentamiento entre dos estructuras binarias jerárquicas (existencia- esencia, hombre-mujer, ser humano- animal, alma-cuerpo…), la Deconstrucción tratará de invertir esas jerarquías y desmontarlas evidenciando su falta de solidez, sus aporías y paradojas; la primera tarea será, siempre, hallar cuál es la oposición binaria jerárquica que domina en un texto (Deconstrucción, 2011).

 

GEORG WILHELM FRIEDRICH HEGEL

Imagen relacionada

 Las aportaciones de Hegel son de gran envergadura especialmente a lo relativo a la dialéctica moderna. La que se refiere no tan solo al pensamiento, como lo hacía la dialéctica antigua., sino que abarca también al mundo exterior. El sistema de Hegel concibe al mundo de la naturaleza, de la historia y del espíritu como un proceso de cambio y desarrollo constante. La dialéctica parece el modo de ser de la realidad y una exigencia del pensamiento que quiera comprenderla adecuadamente. La definición, mas sintética de la dialéctica la dio Hegel: “espíritu de contradicción organizado”. Todas las cosas están hechas de contrarios, esa contradicción es la fuente del desarrollo. Hegel era idealista, pensaba que los fenómenos y objetos de la realidad eran la forma de objetivarse del “espíritu absoluto”, el que ya existía antes de que existiese el mundo, La dialéctica hegeliana fue adoptada por los marxistas liberando su núcleo racional del revestimiento místico y aplicándolo al estudio del movimiento del mundo. Hegel representa la cumbre del idealismo filosófico alemán, su literatura filosófica es amplia y complicada, destaca en ella La Fenomenología del Espíritu. Con Hegel, el idealismo alemán adquiere su máxima expresión y desarrollo y abre un horizonte de reflexión filosófica que, con su perspectiva y problemática, se arraigó profundamente en el pensamiento filosófico pos hegeliano. Indudablemente, Hegel expresa la síntesis última y plena realización conceptual de ese movimiento filosófico que tiene sus raíces en Kant y que continúa ulteriormente en Fichte y Schelling. Así lo afirma (Rojas M. , 2014).

IMMANUEL KANT

Resultado de imagen para IMMANUEL KANT

 La teoría del conocimiento de Kant, presentada en su crítica de la razón pura. Con ella pretende responder las objeciones de Hume respecto del fundamento del conocimiento científico, basado sólo en la costumbre. Kant no duda que el conocimiento científico, universal y necesario, es posible ya que la física de Newton lo prueba. Y sabe que un conocimiento de este tipo no puede tener su fundamento en la mera costumbre. De ahí que no se pregunta por la posibilidad sino por las “condiciones de posibilidad”. Su teoría le permite encontrar el suelo firme para la Ciencia en el propio sujeto, portador de formas universales que obtienen de la experiencia la materia indispensable para construir su objeto de conocimiento, el fenómeno. Así encerrado en un mundo fenoménico, descalifica la posibilidad de contactar a las cosas en sí mismas, sean las del mundo, la de Dios, o del alma. Su filosofía, no niega la existencia de Dios, ni un orden moral, ni la realidad pensable de un mundo físico. Lo que niega salvo en lo moral es que la razón humana pueda trascender y llegar a esos entes en sí mismos: sean el mundo, Dios o el alma. Además, constituyó la idea de que el mundo, el Sol y todos los planetas son complementarios unos con otros. Kant parte de la conciencia, de las representaciones fenoménicas del yo, sean provenientes del mundo externo o interno (Luvenicus, 2011).

 

 

FRIEDRICH NIETZSCHE

 Resultado de imagen para FRIEDRICH NIETZSCHE

 En la filosofía de Nietzsche declara la muerte de Dios donde no quiere decir que Dios haya existido y después haya muerto. Si no significa que la creencia en Dios ha muerto, expresa el fin de toda creencia en entidades absolutas. Donde Dios no crea al hombre sino el hombre a Dios, la creencia en Dios sirve para dar un consuelo a los hombres de la miseria y sufrimiento existente en este mundo; es un refugio para los que no pueden aceptar la vida. “Muerte de Dios” estamos en un tiempo histórico clave pues en él observamos la necesidad de su final; “Concepto de Dios” se refiere al del cristianismo, pero también a todo aquello que puede sustituirle. Dios es la metáfora para expresar  la realidad que se presenta como la verdad y el bien. Todo aquello que sirve a los hombres para dar un sentido a la vida, pero que sin embargo se pone fuera de la vida, es semejante a Dios: la naturaleza, el progreso, la revolución, la ciencia, tomadas como realidades absolutas son el análogo a Dios. Para Nietzsche con dicha “muerte” podemos y debemos vivir sin lo absoluto, en la “inocencia del devenir”. Es la condición para la aparición del superhombre, que es el individuo fiel a los valores de la vida, al “sentido de la tierra”. Para Nietzsche, la sociedad se encuentra sumida en un profundo nihilismo que ha de superar si no quiere ver su fin (Echegoyen, 2009).

 

 

REFERENCIA BIBLIOGRÁFICA

© Biografías y Vidas, 2.-2. (2016). © Biografías y Vidas, 2004-2016. Recuperado el 03 de 07 de 2016, de Biografias y Vidas: http://www.biografiasyvidas.com/biografia/p/parsons_talcott.htm
Álvarez, A. (2013). Alfred R. Radcliffe-Brown y el concepto de estructura social. Obtenido de Teoria Historia Antropologica : http://teoriaehistoriaantropologica.blogspot.com/2012/03/radcliffe-brown-y-el-concepto-de.html
Álvarez, C. G. (1812-2002). El antisemitismo en España: la imagen del judío, . Madrid: Historia, S.A.
Austin, T. (2016). Las teorías del desarrollo antes de los años 90. Obtenido de Historia de la idea del progreso : http://www.lapaginadelprofe.cl/sociologia/teordes/teordesuno.htm
Ávila, F. (2007). El concepto de poder Michel Foucault. A parte Rei, 7-9.
Barnard, A. (1992). Through Radcliffe-Brown´s spectacles: reflsetions on the history of anthropology. History of the human science. Sidney: Lucien Le Grey.
Cassirer, E. (1993). La Filosofía de la Ilustración. Madrid: Fondo de Cultura Económica de España. ISBN 978-84-375-0350-9.
Castellanos, B. (2009). Tiempo y ser de Martín Heidegguer. Crítica de Ciencias Sociales y Jurídicas, 10-12.
Charbonnier, G. (2007). Entrevistas con Claude Lévi-Strauss . Buenos Aires : Seix Barral.
David Hume. (2016). Obtenido de Boulesis: http://www.boulesis.com/didactica/apuntes/?a=161&p=2
Deconstrucción. (2011). Obtenido de Sobre poética:
Diez, E. (2012). El pensamiento de A. Comte. Obtenido de Semblanza Filosofica: http://cibernous.com/autores/comte/teoria/biografia.html
Echegoyen, J. (2009). Jean Paul Sartre. Obtenido de Filosofia Contemporanea: http://www.e-torredebabel.com/Historia-de-la-filosofia/Filosofiacontemporanea/Sartre/Principal-Sartre.htm
Echegoyen, J. (2009). Nietzsche – Resumen de su pensamiento. Obtenido de Friedrich Nietzsche: http://www.e-torredebabel.com/Historia-de-la-filosofia/Resumenes/Nietzsche-Resumen1.htm
Echegoyen, J. (2011). Historia de la Filosofia – Karl Marx. Obtenido de Filosofia Contemporanea : http://www.e-torredebabel.com/Historia-de-la-filosofia/Filosofiacontemporanea/Marx/Principal-Marx.htm
Garrido, L. ( 2011). HABERMAS Y LA TEORIA DE LA ACCIÓN COMUNICATIVA . Obtenido de Razon y Palabra : http://www.razonypalabra.org.mx/N/N75/ultimas/38_Garrido_M75.pdfhttp://www.razonypalabra.org.mx/N/N75/ultimas/38_Garrido_M75.pdf
Giddens, A. (1974). positivismo y sociologia. London: Heinemann.
graphicom.cl. (2011). Segun Martin Heidegger. Obtenido de Filosofia: http://www.filosofia.mx/index.php/perse/archivos/segun_martin_heidegger
Gustavo, M. (2011). LA SOCIOLOGÍA EN ÉMILE DURKHEIM. Obtenido de Sociologia y Politica : http://marioberriose.blogspot.com/2011/03/la-sociologia-en-emile-durkheim.html
Habermas, J. (1981). Teoría de la acción comunicativa II. Madrid: Taurus.
Henao, A. (2014). Richard Mckay Rorty. Obtenido de Pragmatismo: http://elpragmatismoccf.blogspot.com/2014/07/richard-mckay-rorty.html
Ignacio, J. (2009). Foucault y El Poder. Obtenido de La Cabala: http://antroposmoderno.com/antro-articulo.php?id_articulo=1218
ITAM. (2012). Imre Lakatos. Obtenido de Estudios filosofía-historia-letras: http://biblioteca.itam.mx/estudios/estudio/estudio02/sec_13.html
Karl Popper “Falsacionismo”. (2009). Obtenido de La Audacia de Aquiles.:https://aquileana.wordpress.com/2009/08/11/karl-popper-falsacionismo-principio-de-falsabilidad/
La filosofía de Hobbes. (2015). Obtenido de Webdianoia:
La Teoría Anarquista del Conocimiento . (2012). Obtenido de Interauta Sin Pauta: https://filotecnologa.wordpress.com/2012/01/24/la-teoria-anarquista-del-conocimiento-de-feyerabend/
Luvenicus. (2011). Kant. Obtenido de Academia de Ciencia : http://www.luventicus.org/articulos/03U012/kant.html
Martínez, E. (2012). Respeto a la vida natural, la libertad y las diferencias individuales. Obtenido de Jean-Jacques Rousseau: http://www.uhu.es/cine.educacion/figuraspedagogia/0_juan_jacobo_rousseau.htm
Mireles, F. (2016). “Cultura y Personalidad” o “Funcionalismo Psicológico”. Unir o separar formas de ver la realidad. Obtenido de Academia: http://www.academia.edu/23155417/_Cultura_y_Personalidad_o_Funcionalismo_Psicol%C3%B3gico_._Unir_o_separar_formas_de_ver_la_realidad
Montes, R. (2010). Los orígenes del estructuralismo, el aporte de Claude Lévi-Strauss y la antropología estructural. Obtenido de Humanidad: https://periodicohumanidad.wordpress.com/2010/09/02/los-origenes-del-estructuralismo-el-aporte-de-claude-levi-strauss-y-la-antropologia-estructural/
Morales, J. y. (1997). Introducción a la Sociología. Madrid: Tecnos.
Nisbet, R. A. (1974). the sociology of Émile Durkheim. Oxford University Press: ISBN 9780195017342.
Orteja, J. (1989). La escritura y la diferencia. Barcelona: Anthropos.
Rojas, M. (2014). Hegel y la filosofia total. Santiago: Biblioteca virtual.
Rojas, M. (2014). Hegel y la filosofía total. Santiago: Biblioteca Virtual.
Sánchez, M. (2007). Thomas S. Kuhn. Obtenido de Philosophica : http://www.philosophica.info/voces/kuhn/Kuhn.html
SÉNECA. (2009). Idealismo trascendental de Kant. México D.F: IES “SÉNECA”.
Silva, J. d. (2001). ¿Una época de cambios o un cambio de época? Obtenido de Boletín ICCI “RIMAY”: http://icci.nativeweb.org/boletin/25/souza.html
Talcot Parsons: El sistema social. (2009). Obtenido de oocities.org: http://www.oocities.org/rincondepaco2001/parsons.html
Talcott Parsons. (2016). Obtenido de Biografias y Vidas: http://www.biografiasyvidas.com/biografia/p/parsons_talcott.htm
Tomas, U. (2010 ). William James. Obtenido de El Psicoasesor: http://elpsicoasesor.com/william-james/
Vicente, J. (2013). La teoria del conocimiento de John Locke. Obtenido de: http://suite101.net/article/la-teoria-del-conocimiento-de-john-locke-a80783#.V3nkZrgrLIU
webdianoia, ©. (2015). © webdianoia.com 2001-2015. Recuperado el 03 de 07 de 2016, de Webdianoia: http://www.webdianoia.com/moderna/hobbes/hobbes_fil.htm
Wozniak, S. (2006). Herbert Spencer (1820-1903). Obtenido de Filosofia : http://www.filosofia.mx/index.php/foros/viewthread/170/

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Destacado

Fabricación del Vidrio Borosilicato

El vidrio es un elemento común en la vida del ser humano en la actualidad tiene diversos orígenes y usos, pero ¿de que está hecho? conozcamos un poco más sobre este material…

La sustitución de óxidos alcalinos por oxido de boro en la red vítrea de la sílice da lugar a vidrios de más baja expansión térmica. Cuando el B2O3 entra en la red de la sílice, debilita su estructura y reduce considerablemente el punto de reblandecimiento de los vidrios de sílice. El efecto de debilitamiento se atribuye a la presencia de boros tricoordinados planares.

Tiene baja expansión térmica, alrededor de un tercio de la del vidrio a la sosa y cal, se puede hacer con buena resistencia química y una elevada resistencia dieléctrica y se usa en donde se necesitan combinaciones de estas dos propiedades. Su elevada temperatura de ablandamiento lo hace más difícil de trabajar que los vidrios a la sosa y cal y al plomo. Se utiliza para utensilios de vidrio para laboratorios, tubería industrial, termómetros para temperaturas elevadas, espejos de telescopios grandes, utensilios domésticos para cocina, como los “Pyrex”, bulbos para lámparas muy calientes y tubos electrónicos de alto watiaje. (UNIOVI, 2006).

COMPOSICIÓN QUÍMICA:

SiO2: 60 – 80 %

B2O3: 10 – 25 %

Al2O3: 1 – 4 %

USOS

Los vidrios borosilicatados (vidrios Pyrex) tienen buena resistencia al choque térmico (pequeños coeficientes de dilatación térmica) y buena estabilidad química y se usan ampliamente en la industria química para equipos de laboratorio, tuberías, hornos y faros de lámparas reflectoras (UNIOVI, 2006).

PROCESO DE FABRICACIÓN

  1. Materias primas: para la producción moderna de varios tipos de vidrios se emplea una mezcla de materias primas que se introducen en un recipiente llamado tolva.

ARENA DE SILICE: primer componente, compuesta esencialmente por (dióxido de silicio) SiO

CARBONATO O SULFATO DE SODIO (Na2CO3): gracias a este compuesto la arena funde a menor temperatura.

PIEDRA CALIZA (CaCO3): para que el cristal no se descomponga en el agua.

CRISTAL RECICLADO: su uso es ecológico porque ahorra el gasto de otras materias primas y se aprovecha el rezago de fábrica.

     2. Los ingredientes se funden en un horno para obtener cristal líquido entre (1500-2000 ºC) el fuego lo mantiene caliente y fundido.

     3. El flujo de cristal fundido se desliza a través de conductos del ancho deseado del vidrio.

4. El vidrio flota sobre un baño de Estaño a 1000º. En este compartimento se va enfriando y solidificando.

5. Posteriormente el vidrio es pegajoso y viscoso pero suficiente consistencia para deslizarse por bandas transportadoras en forma de rodillos.

6. A través de horno caliente no lo suficiente para fundirlo de nuevo, lo calienta con la finalidad de eliminar gases o impurezas además cumple la función de templado.

7. Se deja enfriar lentamente para que no se agriete.

8. Finalmente, un brazo robótico con punta de diamante corta el vidrio según sus especificaciones.

9. Se almacena el vidrio en láminas. Así lo manifiesta (Hernández, 2015)

Imagen relacionada

A continuación y el el siguiente enlace comparto un asombroso video que muestra el proceso de fabricación de un hermoso dragón de vidrio. Gracias por leer este su blog de divulgación de conocimiento y ciencia.

Bibliografía:

*Hernández, M. Á. (15 de 08 de 2015). es.slideshare.net. Obtenido de https://es.slideshare.net/moroshoh12/reciclaje-del-vidrio-13975956

*UNIOVI. (2006). Obtenido de http://www6.uniovi.es/usr/fblanco/Tema5.VIDRIO.pdf

Destacado

Composición del Rubí, Zafiro, Corindón y Esmeril

1.- RUBÍ

Kaia Joyas: EL COLOR DE LAS PIEDRAS Y LOS CHACRAS Piedras Rojas  Las piedras rojas como el Rubí se utilizan ampliamente para desbloquear el primer chakra. Sirve para equilibrar los órganos sexuales, la próstata, y la vejiga; además de controlar la agresividad y la actividad.
Rubí en bruto y refinado.

El color más apreciado del rubí es el rojo carmesí por lo que su nombre viene del latín “ruber”, que significa rojo; aunque hemos dicho que en general el rubí es rojo, este color puede variar según el lugar de donde se extrae. Se obtiene de las minas bauxitas, del óxido de aluminio, por lixiviación y flotación. También se ha encontrado en ríos poco profundos de algunos lugares.Es considerada una de las 4 piedras preciosas, junto con el diamante, la esmeralda, y el zafiro, este último otro derivado del corindón, y que veremos un poco más adelante. El rubí es una gema que deriva del óxido de aluminio, del corindón y suele tener un color que va desde el rosa, hasta el rojo sangre, estos colores se deben a que en el corindón hay sustituciones de Al, hay dopaje, en este caso trazas de óxido de cromo. El Cr III ocupa las posiciones del Al III en la estructura cristalina del corindón.

     Su forma es generalmente de prisma hexagonal, con una serie de aristas, aunque hay algunos que se parecen más a un octaedro. Una propiedad interesante es la luminiscencia, en la que se diferencia del zafiro, ya que el rubí si se pone bajo una luz ultravioleta de onda, tanto corta como larga, presenta fluorescencia de color rojo intenso, pero el zafiro azul no suele dar fluorescencia. Otra diferencia es el espectro de absorción, ya que el rubí absorbe muy fuertemente en la zona del amarillo, verde y violeta, mientras que el zafiro en la zona del azul (Pérez, 2013).

2. ZAFIRO

Resultado de imagen para zafiro

     El zafiro es una gema que proviene del corindón en todas sus variedades de color azul, el llamado azul acacia, azulón o genciana, realmente incluye a todas las variedades de color que puede presentar el corindón, a excepción del rojo que es del rubí, e incluso existen zafiros incoloros y al igual que le ocurre al rubí, también existe el zafiro estrella por asterismo.se debe mencionar que no solamente existen zafiros azules, en función del Fe3+ los puede haber verde y amarillos. Incluso existen los zafiros rosa-anaranjados, pero estos reciben el nombre de padparadscha.

     El color del zafiro es debido a inclusiones, en este caso de óxido de titanio y a una determinada cantidad de hierro, y se puede mejorar el color por tratamiento térmico, ya que se cree que esos óxidos están en estado coloidal en el interior del mineral, por lo que si se calienta tanto el Fe como el Ti pasan a formar parte de la estructura y se mejora el color, volviéndose más intenso. Existen diferencias en cuanto a dureza entre el zafiro y el rubí, ambos son duros, pero el zafiro es algo más duro que el rubí (Pérez, 2013).

3.- CORINDÓN

Resultado de imagen para corindon
Corindón Policromo Rubí-Zafiro Moscovita

     Su estructura es de oxígenos en un empaquetamiento hexagonal compacto distorsionado, en el que el Aluminio ocupa 2/3 de los huecos octaédricos, donde se comparten vértices, aristas y caras de los octaedros. En la naturaleza se encuentra en forma de cristales, como son las pegmatitas, anfibolitas o mármoles, y en ocasiones, aunque pocas, en las rocas volcánicas. También aparece, pero en forma amorfa, como escoria cuando se unen los rieles de ferrocarril por una soldadura aluminotérmica. Se forma por el metamorfismo de contacto entre rocas arcillosas alumínicas con otros minerales típicos de este tipo de ambiente como son el piroxeno o al sillimanita.A este grupo mineral pertenecen gemas con colores muy contrastados, como son el rubí y el zafiro y son bastante duros, se acercan bastante al diamante. El corindón es el óxido de aluminio de formula α-Al2O3 cuyo nombre proviene del sanscrito koruvinda, que cristaliza en un sistema trigonal, presentando una celdilla unidad de tipo romboédrico. Forma cristales hexagonales prismáticos, tabulares, bipiramidales o con forma de tonel, por ello su tenacidad, es decir, la energía que absorbe un material antes de alcanzar la rotura, por acumulación de dislocaciones, es baja y apenas tiene exfoliación, es decir, apenas se rompe a lo largo de planos, como veremos un poco más adelante.

 

     Su aspecto por regla general es incoloro, pero es lo que se denomina un mineral apocromático, que lo que quiere decir es que su color proviene de las impurezas que pueda presentar, y no a los elementos que presenta, ya que ni el Aluminio ni el Oxigeno presentan color, pero los dos minerales que derivan de él, el zafiro y el rubí, los cuales si presentan color. Presenta un brillo vítreo, es decir, como de vidrio (Pérez, 2013).

4.- ESMERIL

Resultado de imagen para esmeril mineral
El esmeril es un mineral muy duro usado para hacer polvo abrasivo. Está compuesto mayormente del mineral corindón (óxido de aluminio), mezclado con otras variedades como espinelas, hercinita y magnetita y también rutilo (titania). El esmeril industrial puede contener una variedad de otros minerales y compuestos sintéticos como la magnesia, mullita y sílice. Se usa para hacer piedras de afilar (esmeriladoras) y con ella pulimentar y dar brillo a metales y piedras preciosas, etc. Es común dar a estas piedras forma de disco para ser montadas en máquinas rotatorias, la mayoría de las veces eléctricas y que se clasifican según su potencia, voltaje, amperaje, tipo de conexión: estrella, triángulo. Sus dos funciones principales son: desbastar y pulir. Para ello se utilizan piedras, de diferentes clases, piedras duras para materiales blandos y piedras blandas para materiales duros. Se debe tener en cuenta que la dureza de una piedra tiene estrecha relación con el aglomerante y no con la calidad del grano abrasivo en sí.

 

Bibliografía: 

Destacado

Poliéteres, una historia detrás de los antibióticos

Imagen relacionadaUna de las técnicas más usadas en el campo farmacéutico para identificar sustancias que hagan reaccionar a los microorganismos, es haciendo proliferar bacterias en caldos de cultivo, como muestra la imagen de la izquierda; y antes de continuar con el tema de fondo, lo que usted observa es un homenaje que realizó el Museo de Ciencias Naturales de Carolina del Norte, Estados Unidos, para celebrar el cumpleaños de Charles Darwin, este cultivo consistió en tomar muestras con un algodón estéril del fondo de los ombligos de algunos voluntarios, al colocar la muestra sobre las cajas petri en medio de cultivo estéril y a una temperatura adecuada, diferentes microorganismos empezaron a crecer en ellas. Este pequeño experimento permitió que el público estuviera consciente de la microbiota que existe  y se encuentra albergada en cada individuo; lo que definitivamente nos muestra es que somos en sí mismos verdaderos caldos de cultivo para diferentes microorganismos  y  aveces zonas como el ombligo se constituyen en términos de diversidad biológica una zona que podría considerarse las Islas Galápagos de nuestro cuerpo humano.

Pues bien  las empresas  farmacéuticas realizan este proceso de forma planificada hasta determinar sustancias químicas que hacen que los microorganismos presenten una determinada actividad biológica. Éste método ha conseguido desarrollar un gran número de sustancias antibióticas, de las mismas muchisimas han conseguido convertirse en

Una corriente bacteriana de tejido vegetal recién cortado.
Una corriente bacteriana de tejido vegetal recién cortado

fármacos efectivos y no solo de uso humano o animal, dichas sustancias antibióticas han aportado significativamente en el campo de la industria alimenticia y en el agro frenando daños ocasionados por ciertas bacterias. Los antibióticos son por definición, tóxicos  (anti “contra” ; bios “vida”), la meta es una sola, encontrar sustancias que sean más tóxicas para los microorganismos infecciosos que para los  seres humanos, de esa manera hacer que el impacto en él, sea bajo o por lo menos médicamente tratable.

 

Resultado de imagen para monensina
MONENSINA

Ya en la década de los 50’s, se va descubriendo una  variedad de poliésteres antibióticos usando técnicas de fermentación se caracterizan por poseer varias unidades estructurales de eter ciclico como la monensina, esta junto con otros poliéteres en estado natural se parecen a los éteres corona ya que también tienen la capacidad de formar complejos metálicos estables como se muestra a continuación:

 

 

 

ssssdsdf
Sal de sodio de monensina

La sal representada anteriormente es la sal de sodio de monensina, como se puede observar, los cuatro oxígenos de éter y los dos procedentes de los hidroxilos rodean el ión sodio.

Los grupos alquilo se orientan hacia el exterior del complejo y los oxígenos polares y el ion metálico están en el interior. La superficie del complejo, semejante a los hidrocarburos, le permite llevar al ion sodio a través del interior de una membrana celular, semejante a los hidrocarburos. Francis A. Carey & Robert M. Giuliano (2006)

Lo que irrumpe un equilibrio normal entre los iones sodio de la célula, interfiriendo con procesos celulares en la respiración celular, liquidando de esa manera a microorganismos varios, esta sustancia se agrega en cantidades pequeñas en los alimentos de los animales ayudando de esta manera controlar problemas de parasitosis que normalmente prolifera en pollos, vacas, etc. Finalmente  a la monensina  como a múltiples éteres corona que interfieren con los equilibrios de iones metálicos transportandolos en las células se denominan ionóforos (portadores de iones).

Resultado de imagen para ionóforos

 

Imagen relacionada

BIBLIOGRAFÍA

Francis A. Carey & Robert M. Giuliano, (2006), Química Orgánica. Capítulo 16: Éteres, epóxidos y sulfuros. 9º Ed. Mc. GrawHill. pp. 656.

Vidaver, A.K. and P.A. Lambrecht 2004. Las Bacterias como Patógenos Vegetales. Trans. Ana María Romero. The Plant Health Instructor. DOI: 10.1094/PHI-I-2006-0601-01. Recuperado de: https://www.apsnet.org/edcenter/intropp/PathogenGroups/Pages/BacteriaEspanol.aspx

 

Destacado

EFECTO FOTOELÉCTRICO

  • Teoría de Maxwell

     James Clerk Maxwell fue un físico escocés nacido en 1831 que desarrolló la teoría electromagnética a través de experimentos y observaciones sobre la electricidad, magnetismo y la luz. Propuso que estos tres elementos son parte de un mismo “campo electromagnético” y que la causa de todo magnetismo era un movimiento de carga eléctrica, y estas cargas a su vez si circulan en el mismo sentido, se atraen, si circulan en sentido contrario, se repelen. Estas ondas electromagnéticas viajaban a la misma velocidad de la luz, con lo que se comprobó que la luz era una onda electromagnética. Este físico logró resumir todo a teoría de la electricidad y magnetismo en 4 ecuaciones basadas en las  leyes de Coulomb, Ampère, Faraday, Gauss, entre otros.

Resultado de imagen para maxwell

Dichas ecuaciones se resumen a continuación:

Resultado de imagen para Ecuaciones de Maxwell

  • La primera, ley de Gauss de la electricidad, relaciona el campo eléctrico con las cargas eléctricas.
  • La segunda, ley de Gauss del magnetismo, relacionada con el campo magnético, permite llegar a la conclusión de que no existen polos magnéticos aislados.
  • La tercera, ley de Ampere, plantea que a un campo magnético fluctuante le es inherente un campo eléctrico.
  • La cuarta, ley de Faraday, plantea que a un campo eléctrico fluctuante (o a una corriente eléctrica) le es inherente un campo magnético.
  1. Años después el físico alemán Heinrich Hertz después de comprobar las leyes de Maxwell, durante sus experimentos observó una chispa eléctrica podía saltar más fácilmente entre dos esferas cargadas cuando sus superficies eran iluminadas por la luz, así descubrió el efecto fotoeléctrico en 1887.

El efecto fotoeléctrico es la emisión de electrones de un metal cuando se hace incidir sobre él una radiación electromagnética.

“Debido a que los metales contienen electrones libres, se determinó que los electrones pueden extraerse de los metales utilizando los diferentes  mecanismos”. (Martínez, 2007)

  1. Emisión termoiónica (efecto Edison). Los son emitidos al calentar la superficie del metal.
  2. Emisión secundaria. Partículas energéticas incidentes sobre algunos materiales, liberan algunos electrones aun a otros electrones de la superficie
  3. Emisión de campo. Un campo eléctrico intenso extrae electrones de la superficie de un metal
  4. Efecto fotoeléctrico. Luz incidente sobre un metal que expulsa electrones

Cuando los fotones caen sobre una superficie metálica puede pasar:

  1. Los fotones son reflejados
  2. Los fotones desaparecen cediendo toda su energía para sacar los electrones

Resultado de imagen para efecto fotoeléctrico gif

Paquetes de Quantos de Energía

La energía de la luz no se distribuye de forma uniforme sobre el frente de onda clásico, sino que se concentra en regiones discretas denominados cuantos, cada uno con una energía específica hf y la energía de este se transfiere  totalmente a un electrón en el metal donde incide el haz de luz. La energía cinética máxima de los fotoelectrones (electrón emitido del metal) liberados no depende de la intensidad de la luz incidente. La intensidad de un haz de luz depende de la cantidad de fotones presentes, mientras que la energía de cada uno de esos fotones tiene relación con la frecuencia. Como se demuestra en la figura 2 el efecto foto eléctrico.

“El efecto fotoeléctrico no pudo ser explicado solamente con la teoría electromagnética de Maxwell, ya que se basaba en la suposición de que la energía radiaba en forma continua”. (Tippens, 2001)

Por lo que surge la hipótesis cuántica del físico alemán Max Planck en donde postuló que la energía electromagnética se absorbía o emitía en paquetes discretos o cuantos y donde su cantidad de energía era proporcional a la frecuencia de la radiación

E=hv

E= Energía del fotón

h= constante de Planck (6,625×10-34 J.s)

v= frecuencia del fotón

Einstein modifica esta teoría, ya que Planck la aplico sobre la base de la teoría ondulatoria. Así Einstein la aplico en su teoría del fotón:

hv=ϕ+Kmax

hv = energía del fotón absorbida por un solo electrón

ϕ = función de trabajo de la superficie emisora usada para hacer que el electrón escape de la superficie metálica.

hv-ϕ = exceso de energía cinética del electrón

Kmax = energía cinética máxima que el fotoelectrón puede tener fuera de la superficie.

Naturaleza dual de la  luz: corpuscular propuesta por Max Planck y ondulatoria de Maxwell

 Antecedentes sobre la naturaleza de la luz

La óptica, estudio de la luz, es una de las ramas más antiguas de la física y el intento de determinar cuál es su naturaleza ha dado lugar a grandes controversias. Para las civilizaciones antiguas, como la “escuela atomística”, hacia 450 a.C. postulaba que la visión se producía debido a la emisión de imágenes por parte de los objetos, y a través de los ojos llegaban a nuestra alma. La “escuela pitagórica”, unos años después, suponía al contrario, que la visión se producía por un fuego invisible que exploraba los objetos.

Resultado de imagen para escuela atomista

Basándose en la teoría anterior, Euclides hacia el 300 a.C. introduce el concepto de rayo (emitido por el ojo), la propagación rectilínea de la luz y la ley de la reflexión.

A finales del siglo XVI y comienzos del XVII se producen grandes avances en óptica como consecuencia de las aportaciones de Kepler (1571-1630)y Galileo (1565-1642).

En 1621 Snell descubre experimentalmente la ley de la reflexión y Descartes en 1638 en su “Óptica” enuncia las leyes de la reflexión y de la refracción, pero sin tener en cuenta cual era la naturaleza de la luz. Así lo afirma (Universidad Politécnica de Madrid, 2010)

Teoría ondulatoria de Maxwell

 En 1864 el físico y matemático inglés James C. Maxwell publicó la teoría electromagnética de la luz, en ella predecía la existencia de ondas electromagnéticas que se propagaban con una velocidad de 3 x 108 m/s, obtenida a partir de las leyes de la electricidad y magnetismo y que coincidía con el valor de la velocidad propagación de la luz. Con esto se confirmaba teóricamente que la luz no es una onda mecánica sino una onda electromagnética que puede propagarse sin necesidad de un medio material.

La comprobación experimental de la existencia de ondas electromagnética fue efectuada en 1887 por el físico alemán Hertz quien utilizando circuitos eléctricos generó y detectó dichas ondas. Las ondas electromagnéticas son, en el caso más sencillo, ondas armónicas transversales, constituidas por la oscilación de dos campos, uno eléctrico y otro magnético, de direcciones perpendiculares, siendo ambos a su vez perpendiculares a la dirección de propagación, que se propagan en el vacío a la velocidad de la luz. La velocidad de la luz en el vacío es una constante universal, como postuló Einstein en 1905. En 1963 el National Bureau of Standards oficialmente fija la velocidad de la radiación electromagnética en el vacío en 299.792,8 km/s. Para la mayoría de las aplicaciones, la velocidad de las ondas electromagnéticas es aproximadamente 300 000 km/s.

Resultado de imagen para Componentes de la onda Electromagnética
Componentes de la onda Electromagnética

Resultado de imagen para velocidad de la luz

La onda electromagnética está caracterizada por la magnitud frecuencia ν, o por la magnitud longitud de onda en el vacío λ0, relacionadas entre si por la velocidad de la luz en el vacío c:

c = ν λ0 ν = c/ λ0 λ0 = c/ν

Cuando una onda electromagnética pasa de un medio a otro de diferente densidad la frecuencia no varía, pero al variar la velocidad lo hace también la longitud de onda. Conclusión: la frecuencia de una onda siempre permanece constante. La relación entre las magnitudes frecuencia, longitud de onda y velocidad en un medio distinto del vacío, será análogas a las que existen en el vacío, pero con la velocidad y la longitud de onda que corresponden al referido medio:

v = ν λ ν = v/ λ λ = v/ν

Teoría corpuscular de la luz según Planck y Einstein

Resultado de imagen para max planck y albert einstein

El estudio de fenómenos como la radiación del cuerpo negro, el efecto fotoeléctrico y los espectros atómicos no se pudieron explicar con el modelo ondulatorio. Aunque la teoría ondulatoria explica la propagación de la luz, falla cuando se produce interacción con la materia. En 1900 Max Planck, para obtener la ley de radiación del cuerpo negro, supuso que la emisión de luz no es de forma continua sino por cuantos discretos.

La teoría cuántica de Plank permitió que en 1905, que A. Einstein explicara el efecto fotoeléctrico y llamó fotones a los corpúsculos luminosos. El fotón al igual que otras partículas lleva consigo energía y momento desde la fuente, pero a diferencia de otras partículas, tales como protones o electrones, no posee masa en reposo. La intensidad de la radiación luminosa es directamente proporcional al número de fotones presentes, y la energía contenida en un fotón o cuanto de radiación esta definida por:

E = h ν

donde E = energía de un fotón en julios (J) y h = constante de Planck = 6,626. 10 – 34 J.s

Se puede decir que los fotones de las diversas radiaciones se distinguen entre si por su energía proporcional a la frecuencia de la onda considerada. Se aceptaba que la luz se comportaba como una onda electromagnética en los fenómenos de propagación, y como un corpúsculo en los fenómenos de emisión absorción e interacción con la materia.

sssss
Resumen de la teoría Corpuscular

La Naturaleza dual de la luz actualmente

Resultado de imagen para La Naturaleza dual de la luz actualmente


La luz tiene una doble naturaleza, corpuscular y ondulatoria y en cada fenómeno concreto se manifiesta como onda o como corpúsculo. La complementariedad de los aspectos ondulatorio y corpuscular fue puesta de manifiesto por Luis de Broglie (premio Nobel en 1929) al establecer en 1924, que todo corpúsculo en movimiento (sea material, eléctrico o de cualquier naturaleza) lleva asociado una onda y que la intensidad de una onda en un punto, en un cierto instante, es la probabilidad de que el corpúsculo asociado esté en ese punto en el instante considerado. De esta forma fija la base de la Mecánica Cuántica desarrollada posteriormente por Schrödinger, Heisenberg, Born y Dirac, fundamentalmente.

UNIVERSIDAD CENTRAL DEL ECUADOR
FACULTAD DE CIENCIAS QUÍMICAS
QUÍMICA FARMACÉUTICA-QUÍMICA DE ALIMENTOS
ALEJANDRO AGUIRRE*; FERNANDA QUIROGA

Bibliografía

  • Martínez, J. E. (2007). Fisica Moderna Edicion Revisada. Atlacomulco : Pearson Educación.
  • Tippens, P. (2001). Física conceptos y aplicaciones. Chile : McGRAW-HILL INTERAMERICANA.
  • Giancoli, D. (2006). Física principios con aplicaciones. Acapulco: Pearson Educación.
  • Julián Fernández Ferrer, M. P. (1981). Iniciación a la física, Volumen Barcelona: Reverté.
  • Universidad Politécnica de Madrid. (2010). Apoyo para la preparación de los estudios de Ingeniería y Arquitectura. Madrid: Algabarra.

 

Destacado

¿Qué es la manipulación genética de los alimentos?

La manipulación de alimentos consiste en la manipulación de las células de animales y vegetales. Las características de cualquier ser vivo está determinado por los genes contenidos en el cromosoma de las células. Los alimentos modificados genéticamente son alimentos a los que se les han modificado sus rasgos genéticos hereditarios, añadiendo otros materiales genéticos.

Imagen relacionada
La super comida: 2016

Este material genético les imparte características deseables, tales como menos reblandecimiento, mejor color o sabor, o cambios de los mismos, mayor resistencia a las enfermedades de la planta, u otras características. Algunos ejemplos de alimentos modificados genéticamente son los pimientos morados, amarillos o blancos, los tomates Flavr Savr, etc. Los pimientos dulces fueron modificados al insertarles códigos genéticos para el cambio de color, tomados de tulipanes. El tomate Flavr savr se modificó al insertar a la inversa su propio código genético, para lograr la manufactura de una enzima que lo hace más blando y de esa manera disminuyendo el proceso de ablandamiento a fin de permitirle a los tomates que se maduren en la misma planta sin que se vuelvan demasiado blandos para su distribución mercantil.(Nerkis,2008)

Resultado de imagen para tomates Flavrsavr

LA MANIPULACIÓN GENÉTICA CONSISTE EN:

La manipulación genética consiste en aislar segmentos del ADN de un ser vivo (virus, bacteria, vegetal, animal o humano) para introducirlos en el de otro, este fragmento de ADN, se une por medio de una enzima ADN ligasa a un vector, generando una molécula nueva conocida como recombinante.

Imagen relacionada

El vector que se utiliza contiene secuencias que permiten la replicación y secuencias que facilitan su selección. Luego el ADN recombinante obtenido, mediante enzimas, se pega ese nuevo gen al genoma del organismo. En la industria alimentaria se ha aplicado esta técnica en cultivos de duraznos, plátanos, melones y papayas para mejorar y realzar su sabor. También es utilizada en tomates para hacer más lenta su maduración y en algunos granos para hacer las plantas más resistentes a los herbicidas.

Resultado de imagen para manipulacion genetica

ALIMENTOS OBTENIDOS POR MANIPULACIÓN GENÉTICA

  • Los organismos que se pueden utilizar como alimento y que han sido sometidos a ingeniería genética (por ejemplo, plantas manipuladas genéticamente que se cosechan).
  • Alimentos que contienen un ingrediente o aditivo derivado un organismo sometido a ingeniería genética.
  • Alimentos que se han producido utilizando un producto auxiliar para el procesamiento (por ejemplo, enzimas) creado mediante la ingeniería genética. ( Débora Frid, 2009)

Imagen relacionada

INGENIERÍA GENÉTICA

La ingeniería genética es la tecnología del control y transferencia de ADN de un organismo a otro, lo que posibilita la corrección de los defectos genéticos y la creación de nuevas cepas (microorganismos), variedades (plantas) y razas (animales) para una obtención más eficiente de sus productos.

La ingeniería genética incluye un conjunto de técnicas biotecnológicas, entre las que destacan:

Resultado de imagen para INGENIERÍA GENÉTICA

Bibliografía

Nerkis.A.(2008). Manipulación genética de los alimentos. Controversias bioéticas para la salud humana. En: Maracay. Vol. 8. N° 2

Débora Frid, 2009. La modificación genética de los alimentos por el hombre.

Destacado

Proceso HALL-HEROULT para la obtención del Aluminio metálico

Resultado de imagen para Proceso HALL-HEROULT para la obtención del Aluminio metálico

Ilustración 1 Esquema del proceso Hall-Herault por electrolisis de alúmina fundida en criolita

El proceso Hall-Heroult en la industria consiste en la utilización de dos tipos de celdas según afirma (Textos Científicos, 2006) poseen múltiples ánodos precocidos y los denominados ánodos de  Soderberg; dichos ánodos se encuentran suspendidos de una estructura transversa por encima de la celdas en donde están conectados a una barra colectora anódica, los ánodos precocidos son fabricados a partir de una mezcla de coque de petróleo y alquitrán mediante prensas hidráulicas a 1100 ºC.  el ánodo de Soderberg posee un compartimento donde es colocado el electrolito, y la separación entre ánodo y cátodo normalmente es de unos 5cm.

El electrolito utilizado es criolita (3NaF AlF3) en CaF2 y Al2O3. El punto de fusión de la criolita pura es de 1009 oC, el electrolito contiene espatoflúor (CaF2) y algo de AlF3 en exceso y, junto con la alúmina disuelta, reduce la temperatura de fusión lo suficiente para permitir que las celdas se operen en el intervalo de 940 a 980 oC. El exceso de AlFmejora también la eficiencia de la celda. El electrolito se absorbe rápidamente en el recubrimiento y en el aislante, con marcada absorción preferente de una porción con alto contenido de sodio, que tiende al reducir la relación NaF/AlF3 por debajo de lo deseado.

Esto se compensa añadiendo un material alcalino como carbonato de sodio:

3Na2CO3 + 4AlF3 → 2(3Na x AlF3) + Al2O3 + 3CO2

Después de las primeras semanas de operación de las celdas, el electrolito tiende a agotarse en AlF3, por la reacción con la sosa cáustica residual en la alúmina y por la hidrólisis a partir del aire o de materiales añadidos:

3Na2O + 4AlF4 → 2(3NaF x AlF3) + Al2O3

3H2O + 2AlF3 → Al2O3 + 6HF

 Las pérdidas en el electrolito requieren adiciones periódicas de AlF3 para mantener la composición deseada. Los resultados finales son la liberación de oxígeno en el ánodo y el depósito de aluminio en el cátodo. Él oxigeno se combina con el ánodo de carbono para formar CO y CO2, predominando el CO2.

Referencia:

Textos Científicos. (28 de 12 de 2006). Textos Científicos.com. Obtenido de https://www.textoscientificos.com/quimica/aluminio/obtencion-aluminio-metalico

Destacado

Hablemos de Drogas! (PARTE II) LOS ALCALOIDES: Opio, morfina y heroína.

     Después de conocer algo sobre algunos conceptos básicos de lo que tiene  que ver con drogas, es momento de hablar de los alcaloides, estos compuestos orgánicos de tipo nitrogenados, poseen una estructura química compleja. Tienen un comportamiento básico frente a los ácidos,  es decir son alcalinos (álcalis) de allí su nombre, Poseen propiedades fisiológicas  muy notables y tóxicas.

Resultado de imagen para alcaloides

     Los alcaloides están presentes en las plantas, específicamente en los órganos que presentan mayor actividad como hojas, raíces, frutos y semillas. Sin embargo en la actualidad existen alcaloides de origen sintético, lo que significa como tal, que son desarrollados en laboratorios por acción humana. Así lo menciona el Dr. Gerardo Armendaris, en su libro “Química Orgánica” (2009).

     Sus acciones fisiológicas y tóxicas actúan casi de forma exclusiva en el sistema nervioso. El uso o consumo frecuente genera un efecto de “acostumbramiento” que mas bien se traduce como una adicción; incluso a dosis bajas con efectos psicoactivos. Muchos de ellos por esta razón son utilizados dentro del algunas medicinas comunes para tratar migrañas, o hasta  gripe. Poseen estructuras muy variadas como se puede apreciar en la figura anterior, por definición un  alcaloide es un compuesto orgánico que posee un nitrógeno heterocíclico procedente del metabolismo de aminoácidos, si su fuente proviene  de otro modo (sintética) suele denominarse pseudoalcaloide como lo es la solanina.

Resultado de imagen para solanina

  • a) Alcaloides verdaderos: Metabolitos secundarios que poseen un nitrógeno heterocíclico, y su esqueleto de carbono proviene, parcial o totalmente, de un aminoácido proteico.
  • b) Pseudoalcaloides: Metabolitos secundarios que poseen un nitrógeno, pero que no han sido biosintetizados a partir de aminoácidos sino que se forman por transferencia de nitrógeno en forma de amoniaco a un compuesto de origen terpénico, esteroide, policétido, monosacárido o a un ácido graso.

EL OPIO

Imagen relacionada

    El opio es el jugo deseado de la cápsula de la adormidera, la que contribuyó en el símbolo de Morfeo, dios griego del sueño. Dentro de botánica sistemática esta planta es de la familia Papaver somniferum.

Fuente: http://www.tropicos.org/Image/100010998?langid=66

    El jugo es extraído por incisiones en las cápsulas no maduras de las que brotan pequeñas lágrimas blanquecinas (como muestra la imagen) que se oscurecen al reaccionar con el aire que lo hace oxidar brevemente. Se amasan en panes y que según menciona la literatura, desde la antigüedad este olor es verdaderamente repugnante.

Resultado de imagen para opio significado

    El opio en bruto contiene muchos alcaloides como: morfina, narcotina, papeverina, codina, protopina, laudamina; siendo la morfina quizás el mas abundante.

Resultado de imagen para opio en bruto
Refinado del Opio

MORFINA

Resultado de imagen para morfina

     El uso NO terapéutico de la morfina, induce a la morfinomanía, que en la actualidad puede resultar difícil adquirirlo; debido a que las farmacias o droguerías, solo es suministrable por prescripción médica. Derivado de la morfina es la heroína que químicamente es la Diacetilmorfina.

Resultado de imagen para heroina
Heroína

   Esta droga a su vez, fisiológicamente hablando, tiene  una acción tóxica más poderosa, en un rango de unas 5 veces superior a la morfina y produce la heroinomanía.

   Los derivados de la morfina ocurren regularmente en los grupos OH (hidroxilo), para generar éteres derivados acetilados. Nótese los núcleos del fenantreno y de la fenil piridina.

Resultado de imagen para fenantreno

     La morfina tiene acción hipo analgésica por lo cual interviene o bloquea la conducción de las sensopercepciones,. normalmente dolorosas, esto genera sueño específicamente y es utilizado como anlagésico por su capacidad de aliviar el dolor principalmente en personas que han sido sometidas a intervenciones quirúrgicas o en pacientes cancerosos así como en pacientes con enfermedades catastróficas que experimentan intensos dolores. La Heroína tiene  una acción más potente que la morfina, la razón puede deberse a la actividad química que se puede generar desde su estructura. El dato curioso es que el opio puede suministrarse en forma de pan (comida), como bebida o simplemente tomándolo; el opiómano experimenta exaltaciones de fantasía, se ve transportado a un mundo de mil maravillas, incluye visiones fantásticas por lo tanto y de forma general recrea en su mente un paraíso artificial o más bien dicho menta. El consumidor se queda quieto o contemplativo, lo que es una claro síntoma en personas dependientes.

Referencia Bibliográfica:

*Armendaris Gerardo. Química Orgánica. (2009). Los Alcaloides. Editorial Maya. Quito Ecuador. pp.243-244

Destacado

Desarrollo de la productividad agraria convencional y su aporte al medio ambiente y la salud humana.

Jessenia Jiménez *

Estudiante de Química de Alimentos

Fac. Ciencias Químicas- UCE  

     Actualmente, los cultivos agrícolas convencionales son sistemas que usan tecnologías disponibles, mismos que están en constante evolución, existe una tendencia por el consumos de productos orgánicos, puesto que se considera que los convencionales, al contener químicos son perjudiciales para la salud y el medio ambiente, a su vez existe desconocimiento por parte de los consumidores sobre los avances que han ido surgiendo para desarrollar este tipo de producción que no es del todo gris como se la estigmatiza. Generalmente se ignoran las ventajas que hay para el ser humano cuando existe control sanitario de los productos que se consumen, debido a esto, el presente ensayo analizará si existe la posibilidad de que los cultivos convencionales generen beneficios en la salud humana y en el medio ambiente, desarrollando una mayor productividad de estos, por lo cual, en las siguientes líneas  se expondrá la preferencia de las personas frente a los cultivos convencionales, los avances en su producción y las ventajas que estos ofrecen para el consumidor.

Resultado de imagen para DDTA inicios del siglo XX comenzó el uso de diversos químicos en los cultivos agrícolas con el fin de aumentar la cantidad y calidad del producto con el fin de cumplir con la meta de alimentar a la población de ese entonces, sin embargo estos causaron graves estragos a largo plazo en el medio ambiente, el uso de pesticidas se elevó como por ejemplo de DDT (dicloro difenil tricloroetano) que actualmente pertenece a la negra lista de los COP’s (compuestos orgánicos prohibidos), por parte de los agricultores debido al desconocimiento de los niveles de toxicidad de esas sustancias y la aparición de enfermedades crónicas como el cáncer, principalmente en piel dado por la exposición con químicos que conforman estas sustancias plaguicidas,  estos efectos ampliamente conocidos han hecho que, en la actualidad los consumidores prefieran productos orgánicos, o bueno por lo menos que procedan de alguna fuente agrícola no contaminante, pero esto ha ido cambiando a lo largo de los años, el desarrollo de tecnologías para la agroindustria; amigables al medio ambiente, acompañado de políticas de control a los agricultores y sus prácticas por parte de entidades públicas y privadas han hecho que los productos convencionales mejoren y sean más rentables y seguros que los orgánicos. (Bruulseman, 2012).

Resultado de imagen para cultivos organicosGeneralmente, las personas piensan que los cultivos orgánicos al estar en auge han logrado mayores avances en pro de la humanidad, sin embargo es algo que visto objetivamente aún puede estar alejado de la verdad ya que según varios estudios se ha visto lo contrario, por ejemplo, un producto orgánico tiene mayor costo y es menos rentable que un cultivo convencional, al momento de cultivar un producto orgánico este utiliza fertilizantes y abonos naturales degradados de materia orgánica que muchas veces no son bien tratados; por ejemplo: usted que es un consumidor, confiaría en un producto “orgánico” que utilizó en su desarrollo heces fecales de animales varios; de fondo verdaderamente ese no es el problema, sin embargo dicho “abono” está sujeto a diversos riesgos, por citar un ejemplo la posibilidad de proliferación de parásitos y hongos procedentes de dicho “abono natural”, y lo que es peor ¿confía usted en sus propias prácticas al momento de manipular alimentos en casa? Un dato revelador de la Universidad Nacional Autónoma de  México, en su portal del Departamento de microbiología y parasitología, se afirma que una de las principales causas de infección atribuida al toxoplasma gondii se debe al consumo de carne con coquistes del parásito, o a su vez por cultivos de hortalizas que hayan estado expuestas al paso de roedores o aves portadoras del parásito y que hayan dejado heces fecales en el producto y no como injustamente se ha mitificado a la figura de los felinos domésticos entorno a la toxoplasmosis. (UNAM, 2017).

Resultado de imagen para toxoplasma gondii ciclo de vida
Ciclo de vida del toxoplasma

Al usarse insumos complejos que son de costo elevado, a comparación de los cultivos convencionales, este utiliza pesticidas herbicidas y plaguicidas sintéticos que ya han pasado por un proceso de certificación que avalan su seguridad, utilizando materiales de siembra sencillos lo que hace que sean más baratos de producir. El tiempo de producción de un cultivo orgánico es mayor,  muchas veces no solventa la demanda, en cambio los convencionales han logrado que, dependiendo de la semilla, el tiempo de germinación sea menor y el resultado final tenga una mejor calidad, de esta manera se puede afirmar que estos han logrado mayores avances  a lo largo del tiempo. (Caza, 2014).

 

Resultado de imagen para agricultura
Drones para la agricultura

En los últimos años, los cultivos convencionales han ido mejorando en cuanto a productividad, seguridad sanitaria y ambiental se refiere. El uso de fertilizantes, herbicidas, plaguicidas en los cultivos convencionales ha ayudado a los agricultores a aumentar su producción, haciendo que el tiempo de cultivo reduzca y los productos obtenidos sean de mejor calidad, es así que los avances en los químicos utilizados para este tipo de producción han logrado que exista menor contaminación al suelo y al aire utilizando compuestos bio-degradables y técnicas para prevenir la erosión del suelo de la misma forma se ha comprobado que usando plaguicidas en estos productos se ha reducido el riesgo de contagio en los consumidores de enfermedades producidas por microorganismos patógenos comunes en las zonas donde se han realizado los cultivos. (Cartago, 2012).

Resultado de imagen para granjas circulares
Cultivos circulares en zonas desérticas (Egipto)

Por todo lo dicho anteriormente está claro que por lo general, el consumidor aún no tienen una idea clara en cuanto al desarrollo de productos convencionales se refiere pero, se ha podido comprobar que estos buscan ser más seguros y saludables que los productos orgánicos ya que se acogen a normas técnicas de producción, así también estos han tenido mayores avances tanto en tecnología, modo de siembra, y conciencia social porque han podido generar compuestos que utilizados de manera adecuada han generado productos ideales para solventar la demanda alimentaria, a la vez que han creado mayor rentabilidad para los agricultores y precios bajos para los consumidores sin perder su calidad, no con ello se desconoce el poder de las grandes industrias que poseen un gran poder hegemónico y monopólico en la producción agropecuaria que pueden tener intereses económicos por encima de los intereses de salud pública, sin embargo se concluye de manera amigable que la tecnología puede ser una gran aliada para la agroindustria en beneficio del ser humano, puede ser una herramienta de apoyo y aprendizaje para el cultivo orgánico no masivo y masivo, no se pretende estigmatizar colateralmente a las granjas orgánicas, sino más bien sentar un precedente que concentre esfuerzos por la salud pública  y por la lucha de prácticas adecuadas de manejo de alimentos y de  técnicas de producción a pequeña, mediana y gran escala. Los químicos no son lo enemigos, ni los agricultores que los utilizan; el enemigo siempre será el desconocimiento y el uso inadecuado de los mismos, a su vez lo orgánico no es precisamente malo, de forma simultanea enfrenta la desinformación y está sujeto a malas prácticas de manufactura. El consumidor de las sociedades modernas requiere satisfacer no solo su consumo propiamente dicho, si no deberá generar conciencia de consumo, un consumo responsable nos conducirá a una producción agropecuaria más responsable sea de tiente orgánico como de carácter convencional.

Resultado de imagen para agricultura

BIBLIOGRAFÍA

 

Destacado

La Reina de la Ciencia del Carbono, Mildred Dresselhaus

     Científica, maestra, investigadora y especialista física son solo unos pocos de los grandes logros que posee la Dra. Mildred Dresselhaus; una mujer que enaltece no solo a su género si no que reivindica la posición de la mujer en torno al mundo de la ciencia. El ambiente se remonta al corazón de New York  (Brooklyn),  siendo un 11 de noviembre de 1930, y de padres inmigrantes de origen polaco-judío, nace una promesa de la ciencia, Mildred Spiewak. Criada en el entorno festivo de las estrellas de Bronx, Mildred se ve Imagen relacionadairremediablemente cautivada por el mundo de la ciencia obteniendo en 1951 por el Hunter College (NY) su licenciatura en Física. En 1953, y tras recibir el sabio consejo de quien después sería premio Nobel, Rosalyn Yalow, quien le sugiere cursar estudios de posgrado en Harvard; Mildred obtiene en Radcliffe College & U. Harvard, su maestría en Física valiéndose de la beca Fulbright. Finalmente y en 1958, obtiene  su doctorado en la Universidad de Chicago, donde laboró junto al Nobel Enrico Fermi. Adicionalmente curso  dos años de postdoctorado en la Universidad Cornell. Ya en campo laboral se destaco en diferentes áreas, a continuación un recuento de sus diferentes puestos profesionales de mayor relevancia:

  • 1960-1967: Investigadora en Lincoln Lab.
  • 1967: Profesora visitante de ingeniería eléctrica en MIT (Massachusetts Institute of Technology).
  • 1968: Científica permanente en MIT.
  • 1983: Profesora de Física en MIT.
  • 1985: Primera mujer Profesora del MIT.
  • 1984: Presidente de la Sociedad Americana de Física (APS).
  • 1998: Presidente (primera mujer) de la AAAS (American Association for the Advancement of Science).
  • 2000-2001: Directora de la Oficina de Ciencia de Dpto. de Energía de USA.
  • 2003-2008: Miembro del consejo de gobierno de AIP (American Institute of Physics).
  • Tesorera de la Academia Nacional de Ciencias de USA.

“Cuando comencé mis estudios en Hunter College, se trataba de una institución eminentemente femenina, así que adquirí la idea de que las chicas podían estudiar Física exactamente igual que los chicos. Al llegar a la Universidad de Cambridge, éramos sólo unas pocas mujeres, pero nos defendíamos bien. No descubrí que se suponía que yo no debía dedicarme a la Física hasta que me incorporé a la comunidad científica general. Cuando me doctoré en 1958 me sentía muy sola, en aquel momento las mujeres sólo representábamos el 2% de los físicos”.

Mildred Dresselhaus

Al igual que su perfil por demás asombroso, y antes de hablar sobre su trabajo, es importante mencionar que Mildred Dresselhaus es por si misma un ìcono de las luchas sociales por la igualdad de género, defendía abiertamente la integración de la mujer en la ciencia, siempre lo dijo:

Resultado de imagen para mildred dresselhaus
https://mujeresconciencia.com/2015/11/11/mildred-dresselhaus/

…Tenía una plaza de investigación en MIT Lincoln Labs, y por supuesto éramos muy pocas mujeres, éramos dos entre cientos de hombres. Así que éramos menos, pero creo que nuestro trabajo era valorado. Y sigo en ello, porque me sigue interesando…

Y esa lucha hizo que Mildred sea reconocida, por lo menos entre las mujeres académicas. General Electric  en el 2017 (año de su deceso) lo reconoció buscando emplear 20000 mujeres con conocimientos pertenecientes a STEM (en castellano CTIM, ciencia, tecnología, ingeniería y matemáticas) para el 2020, con lo que se espera aumentar la plaza laboral para mujeres en áreas tecnológicas.

Resultado de imagen para mildred dresselhaus
http://www.cui.uni-hamburg.de/en/2017/02/mildred-dresselhaus-dies-at-86/

Quizás será recordada por siempre como “La Reina del Carbono”, dicha denominación se la otorgo en base a sus estudios sobre los comportamientos de este elemento para la formación de polímeros y transmisores de datos, hecho que sin duda revolucionaria el mundo de la informática. Ya más profundamente en torno a sus investigaciones, Dresselhaus fue pionera en el estudio de las formas exóticas (polimorfismo) de materiales derivados del carbono, como las laminas de grafeno, y las buckybolas o fullerenos (clusters de carbono). Escribió nada más y nada menos que 1700 publicaciones científicas además de 8 libros y los mas importante, tuvo el agrado de formar 60 nuevos doctores en su área. Sus investigaciones se basaron y aportaron fundamentalmente en el campo de la nanotecnología, que por cierto aún es una ciencia relativamente joven, también aporto en el estudio sobre capas finas y

Resultado de imagen para fullerenos
Cluster de Grafeno

adelantos en el campo de la física entorno a las capas de grafeno, es importante mencionar que actualmente las capas y laminas de grafeno son utilizadas actualmente en la fabricación de pantallas de smartphones, televisores de nueva generación, entre otros aparatos tecnológicos, la razón de sus estudios radicó en ciertas propiedades de este compuesto, como por ejemplo el hecho de ser extraordinariamente ligero y fuerte, mucho mas que el grafito e incluso puede ser comparado en sus características con el carbono en estado puro, se ha demostrado que un metro cuadrado de grafeno pesa 0.77 mg aproximadamente, además su fortaleza es 200 veces mayor que el acero  y por si fuera poco su densidad es similar a la de las fibras de carbono, estas características lo convierten en un material flexible, fuerte y liviano; lo que significo la revolucion en la siguiente generación de smartphones ya que gracias a ello se logró fabricar pantallas flexibles y delgadas. Conjuntamente estudio el comportamiento de otros compuestos orgánicos particularmente  con la finalidad de determinar potenciales eléctricos y formación de microestructuras.

Otro de sus más grandes aportes fue el descubrimiento del comportamiento de la estructura electrónica de ciertos semimetales lo que sirvió fundamentalmente para sus diversas investigaciones en nanomateriales y sistemas que permitieran a las nanoestructuras movilizarse a traves de campos electromagnéticos, estos sistemas a los que se denominaría como sistemas nanoestructurales, se basaron en materiales estratificados como los mismos fullerenos, dicalcogenuros y fosfenos. Antes de su muerte reactivó el estudio sobre transformaciones de energía termoeléctrica; tema en la actualidad se encuentra en debate científico. Lastimosamente y a una avanzada edad (86 años de edad) fallece el 20 de febrero del 2017. Dejando  un importante legado académico, una lucha incansable por la igualdad de genero lograda a través de la ciencia, y una basta y bien fortalecida base de estudio entorno a los materiales del futuro, conmemorando un año de su fallecimiento este blog le rinde tributo a tan distinguida científica que enaltece la aspiración del ser humano por conseguir un mundo mejor.

 

Imagen relacionada

A continuación una lista de todos los premios y honores que recibió:

OBRAS SELECCIONADAS 

REFERENCIAS LINCOGRÁFICAS:

Destacado

Fisiología del Músculo Cardiaco

Músculo cardíaco: el corazón como bomba y la función de las válvulas cardíacas

     El corazón está formado por dos bombas separadas: un corazón derecho que bombea sangre hacia los pulmones y un corazón izquierdo que bombea sangre hacia los órganos periféricos. Cada uno de estos corazones es una bomba bicameral pulsátil formada por una aurícula y un ventrículo. Cada aurícula es una bomba débil de cebado del ventrículo, que contribuye a transportar sangre hacia el ventrículo correspondiente. Los ventrículos después aportan la principal fuerza del bombeo que impulsa la sangre: 1) hacia la circulación pulmonar por el ventrículo derecho o 2) hacia la circulación periférica por el ventrículo izquierdo. Mecanismos especiales del corazón producen una sucesión continuada de contracciones cardíacas denominada ritmicidad cardíaca, que transmite potenciales de acción por todo el músculo cardíaco y determina su latido rítmico.

Fisiología del músculo cardíaco

     El corazón está formado por tres tipos principales de músculo cardíaco: músculo auricular, músculo ventricular y fibras musculares especializadas de excitación y de conducción. El músculo auricular y ventricular se contrae de manera muy similar al músculo esquelético, excepto que la duración de la contracción es mucho mayor. No obstante, las fibras especializadas de excitación y de conducción se contraen sólo débilmente porque contienen pocas fibrillas contráctiles; en cambio, presentan descargas eléctricas rítmicas automáticas en forma de potenciales de acción o conducción de los potenciales de acción por todo el corazón, formando así un sistema excitador que controla el latido rítmico cardíaco.

Anatomía fisiológica del músculo cardíaco

     El músculo cardíaco posee una histología que presenta fibras musculares cardíacas dispuestas en un retículo, de modo que las fibras se dividen, se vuelven a combinar y se separan de nuevo. El músculo cardíaco es estriado y además, tiene las miofibrillas típicas que contienen filamentos de actina y de miosina casi idénticos a los que se encuentran en el músculo esquelético; estos filamentos están unos al lado de otros y se deslizan entre sí durante la contracción de la misma manera que ocurre en el músculo esquelético.

Músculo cardíaco como sincitio

Las zonas oscuras que atraviesan las fibras musculares cardíacas se denominan discos intercalados, son membranas celulares que separan las células musculares. Es decir, las fibras musculares cardíacas están formadas por muchas células individuales conectadas entre sí en serie y en paralelo. En cada uno de los discos intercalados las membranas celulares se fusionan de tal manera que forman uniones «comunicantes» (en hendidura) permeables que permiten una rápida difusión. Por tanto, los iones se mueven con facilidad en el líquido intracelular a lo largo del eje longitudinal de las fibras musculares cardíacas, de modo que los potenciales de acción viajan fácilmente desde una célula muscular cardíaca a la siguiente a través de los discos intercalados. Por tanto, cuando una de estas células se excita el potencial de acción se propaga de una a otra a través de las interconexiones en enrejado.

El corazón está formado por dos sincitios: el sincitio auricular, que forma las paredes de las dos aurículas, y el sincitio ventricular, que forma las paredes de los dos ventrículos. Las aurículas están separadas de los ventrículos por tejido fibroso que rodea las aberturas de las válvulas auriculoventriculares (AV) entre las aurículas y los ventrículos. Los potenciales son conducidos solo por medio de un sistema de conducción especializado denominado haz AV, que es un fascículo de fibras de varios milímetros de diámetro. Esta división del músculo del corazón en dos sincitios funcionales permite que las aurículas se contraigan un pequeño intervalo antes de la contracción ventricular, permitiendo la eficacia del bombeo del corazón.

Potenciales de acción en el músculo cardíaco

El potencial de acción que se registra en una fibra muscular ventricular es en promedio de aproximadamente 105 mV, significando que el potencial intracelular aumenta desde un valor muy negativo (aproximadamente -8 5 mV) entre los latidos hasta un valor ligeramente positivo (aproximadamente + 20 mV), durante cada latido. Después de la espiga inicial la membrana permanece despolarizada aproximadamente 0,2 s, mostrando una meseta, seguida al final de esta una repolarización súbita. La presencia de esta meseta hace que la contracción ventricular dure hasta 15 veces más en el músculo cardíaco que en el músculo esquelético.

La razón por qué el potencial de acción del músculo cardíaco es tan prolongado y por qué tiene una meseta, mientras que el del músculo esquelético no. Es dado por al menos dos diferencias importantes entre las propiedades de la membrana del músculo cardíaco y esquelético. Primero, el potencial de acción del músculo esquelético está producido casi por completo por la apertura súbita de grandes números de los denominados canales rápidos de sodio que permiten que grandes cantidades de iones sodio entren en la fibra muscular esquelética desde el líquido extracelular. Estos se denominan canales «rápidos» porque permanecen abiertos sólo algunas milésimas de segundo y después se cierran súbitamente. Al final de este cierre se produce la repolarización y el potencial de acción ha terminado en otra milésima de segundo aproximadamente.

En el músculo cardíaco, el potencial de acción está producido por la apertura de dos tipos de canales: 1) los mismos canales rápidos de sodio que en el músculo esquelético y 2) otra población totalmente distinta de canales lentos de calcio, que también se denominan canales de calcio-sodio. Esta segunda población de canales difiere de los canales rápidos de sodio en que se abren con mayor lentitud y, lo que es incluso más importante, permanecen abiertos durante varias décimas de segundo. Durante este tiempo fluye una gran cantidad de iones tanto calcio como sodio a través de estos canales hacia el interior de la fibra muscular cardíaca, manteniendo un período prolongado de despolarización, dando lugar a la meseta del potencial de acción. Además, los iones calcio que entran durante esta fase de meseta activan el proceso contráctil del músculo.

La segunda diferencia es que inmediatamente después del inicio del potencial de acción la permeabilidad de la membrana del músculo cardíaco a los iones potasio disminuye aproximadamente cinco veces un efecto que no aparece en el músculo esquelético. La disminución de la permeabilidad al potasio reduce mucho el flujo de salida de iones potasio de carga positiva durante la meseta del potencial de acción y, por tanto, impide el regreso rápido del voltaje del potencial de acción a su nivel de reposo. Cuando los canales lentos de calcio-sodio se cierran después de 0,2 a 0,3 s y se interrumpe el flujo de entrada de iones calcio y sodio, también aumenta rápidamente la permeabilidad de la membrana a los iones potasio; esta rápida pérdida de potasio desde la fibra inmediatamente devuelve el potencial de membrana a su nivel de reposo, finalizando de esta manera el potencial de acción.

Velocidad de la conducción de las señales en el músculo cardíaco.

La velocidad de la conducción de la señal del potencial de acción excitador a lo largo de las fibras musculares auriculares y ventriculares es de aproximadamente 0,3 a IU5 m/s, o 1/250 de la velocidad en las fibras nerviosas grandes y 1/10 de la velocidad en las fibras musculares esqueléticas. La velocidad de conducción en el sistema especializado de conducción del corazón, en las fibras de Purkinje, es de hasta 4 m /s en la mayoría de las partes del sistema, lo que permite una conducción razonablemente rápida de la señal excitadora hacia las diferentes partes del corazón.

Período refractario del músculo cardíaco.- El músculo cardíaco es refractario a la re-estimulación durante el potencial de acción; el período refractario del corazón es el intervalo de tiempo, durante el cual un impulso cardíaco normal no puede re-excitar una zona ya excitada de músculo cardíaco. El período refractario normal del ventrículo es de 0,25 a 0,30 s que es aproximadamente la duración del potencial de acción en meseta prolongado. Hay un período refractario relativo adicional de aproximadamente 0,05 s durante el cual es más difícil de lo normal excitar el músculo, sin embargo, se puede excitar con una señal excitadora muy intensa. El período refractario del músculo auricular es mucho más corto que el de los ventrículos (aproximadamente 0,15 s para las aurículas, en comparación con 0,25 a 0,30s para los ventrículos).

Acoplamiento excitación-contracción: función de los iones calcio y de los túbulos transversos

El término «acoplamiento excitación-contracción» se refiere al mecanismo mediante el cual el potencial de acción hace que las miofibrillas del músculo se contraigan. Una vez más hay diferencias en este mecanismo en el músculo cardíaco que tienen efectos importantes sobre las características de su contracción. Al igual que en el músculo esquelético, cuando un potencial de acción pasa sobre la membrana del músculo cardíaco el potencial de acción se propaga hacia el interior de la fibra muscular cardíaca a lo largo de las membranas de los túbulos transversos (T). Los potenciales de acción de los túbulos T, a su vez, actúan sobre las membranas de los túbulos sarcoplásmicos longitudinales para producir la liberación de iones calcio hacia el sarcoplasma muscular desde el retículo sarcoplásmico. En algunas milésimas de segundo más estos iones calcio difunden hacia las miofibrillas y catalizan las reacciones químicas que favorecen el deslizamiento de los filamentos de actina y de miosina entre sí. Se liberan hacia el sarcoplasma desde las cisternas del retículo sarcoplásmico, también difunde una gran cantidad de iones calcio adicionales hacia el sarcoplasma desde los propios túbulos T en el momento del potencial de acción, que abre los canales de calcio dependientes del voltaje a la membrana del túbulo T.

El calcio que entra en la célula activa después los canales de liberación de calcio en la membrana del retículo sarcoplásmico, para activar la liberación de calcio en el sarcoplasma. Estos iones calcio interaccionan después con la troponina para iniciar la formación y contracción de puente transversal mediante el mismo mecanismo básico del músculo esquelético. Sin el calcio procedente de los túbulos T la fuerza de la contracción del músculo cardíaco se reduciría de manera considerable porque el retículo sarcoplásmico del músculo cardíaco está peor desarrollado que el del músculo esquelé­tico y no almacena suficiente calcio para generar una contracción completa. No obstante, los túbulos T del músculo cardíaco tienen un diámetro cinco veces mayor que los túbulos del músculo esquelético, lo que significa un volumen 25 veces mayor. Además, en el interior de los túbulos T hay una gran cantidad de mucopolisacáridos que tienen carga negativa y que se unen a una abundante reserva de iones calcio.

El ciclo cardíaco

Son los fenómenos cardíacos que se producen desde el comienzo de un latido cardíaco hasta el comienzo del siguiente. Cada ciclo es iniciado por la generación espontánea de un potencial de acción en el nódulo sinusal. Este nódulo está localizado en la pared superolateral de la aurícula derecha, cerca del orificio de la vena cava superior, y el potencial de acción viaja desde aquí rápidamente por ambas aurículas y después a través del haz AV hacia los ventrículos. Debido a esta disposición especial del sistema de conducción desde las aurículas hacia los ventrículos, hay un retraso de más de 0,1 s durante el paso del impulso cardíaco desde las aurículas a los ventrí­culos. Esto permite que las aurículas se contraigan antes de la contracción ventricular, bombeando de esta manera sangre hacia los ventrículos antes de que comience la intensa contracción ventricular.

Diástole y sístole

El ciclo cardíaco está formado por un período de relajación (diástole) seguido de un período de contracción (sístole). Su duración total es el valor inverso de la frecuencia cardíaca. Los diferentes acontecimientos que se producen durante el ciclo cardíaco para el lado izquierdo del corazón. Las tres curvas superiores muestran los cambios de presión en la aorta, en el ventrículo izquierdo y en la aurícula izquierda, respectivamente. La cuarta curva representa los cambios del volumen ventricular izquierdo, la quinta el electrocardiograma y la sexta un fonocardiograma, que es un registro de los ruidos que produce el corazón (principalmente de las válvulas cardíacas) durante su función de bombeo.

Resultado de imagen para Acontecimientos del ciclo cardíaco para la función del ventrículo izquierdo, que muestran los cambios de la presión auricular izquierda, de la presión ventricular izquierda, de la presión aórtica, del volumen ventricular, del electrocardiograma y del fonocardiograma.
Acontecimientos del ciclo cardíaco para la función del ventrículo izquierdo, que muestran los cambios de la presión auricular izquierda, de la presión ventricular izquierda, de la presión aórtica, del volumen ventricular, del electrocardiograma y del fonocardiograma.

Efecto de la frecuencia cardíaca en la duración del ciclo cardíaco

Cuando aumenta la frecuencia cardíaca, la duración de cada ciclo cardíaco disminuye. La duración del potencial de acción y el período de contracción (sístole) también decrece, aunque no en un porcentaje tan elevado como en la fase de relajación (diástole). Para una frecuencia cardíaca normal de 72 latidos por minuto, la sístole comprende aproximadamente 0,4 del ciclo cardíaco completo. Para una frecuencia cardíaca triple de lo normal, la sístole supone aproximadamente 0,65 del ciclo cardíaco completo. El corazón late a una frecuencia muy rápida no permanece relajado el tiempo suficiente para permitir un llenado completo de las cámaras cardíacas antes de la siguiente contracción.

Relación del electrocardiograma con el ciclo cardíaco

El electrocardiograma muestra ondas denominadas P, Q, R, S y T. Son los voltajes eléctricos que genera el corazón, y son registrados mediante el electrocardiógrafo. La onda P está producida por la propagación de la despolarización en las aurículas, y es seguida por la contracción auricular, que produce una ligera elevación de la curva de presión auricular inmediatamente después de la onda P electrocardiográfica. Aproximadamente 0,16 s después del inicio de la onda P, las ondas QRS aparecen como consecuencia de la despolarización eléctrica de los ventrículos, que inicia la contracción de los ventrículos y hace que comience a elevarse la presión ventricular. Finalmente, en el electrocardiograma se observa la onda T, que representa la fase de repolarización de los ventrículos, cuando las fibras del músculo ventricular comienzan a relajarse. Por tanto, la onda T se produce un poco antes del final de la contracción ventricular.

Función de las aurículas como bombas de cebado

La sangre normalmente fluye de forma continua desde las grandes ventas hacia las aurículas; aproximadamente el 80% de la sangre fluye directamente a través de las aurículas hacia los ventrículos incluso antes de que se contraigan las aurículas. Después, la contracción auricular produce un llenado de un 20% adicional de los ventrículos. Por tanto, las aurículas actúan como bombas de cebado que aumentan la eficacia del bombeo ventricular hasta un 20%. Sin embargo, el corazón puede seguir funcionando en la mayor parte de las condiciones incluso sin esta eficacia de un 20% adicional porque normalmente tiene la capacidad de bombear entre el 300 y el 400% más de sangre de la que necesita el cuerpo en reposo.

Función de los ventrículos como bombas

Durante la sístole ventricular se acumulan grandes cantidades de sangre en ambas aurículas derecha e izquierda porque las válvulas AV están cerradas. Tan pronto finaliza la sístole las presiones ventriculares disminuyen de nuevo a sus valores diastólicos bajos, el aumento moderado de presión que se ha generado en las aurículas durante la sístole ventricular inmediatamente abre las válvulas AV y permite que la sangre fluya rápidamente hacia los ventrículos. El período de llenado rápido dura aproximadamente el primer tercio de la diàstole. Durante el tercio medio de la diàstole normalmente sólo fluye una pequeña cantidad de sangre hacia los ventrículos; esta es la sangre que continúa drenando hacia las aurículas desde las venas y que pasa a través de las aurículas directamente hacia los ventrículos. Durante el último tercio de la diàstole las aurículas se contraen y aportan un impulso adicional al flujo de entrada de sangre hacia los ventrículos; este fenómeno es responsable de aproximadamente el 20% del llenado de los ventrículos durante cada ciclo cardíaco.

Vaciado de los Ventrículos durante la Sístole

Periodo de contracción Isovolumétrica (isométrica)

Después del comienzo de la contracción ventricular aumenta la presión ventricular lo que hace que se cierren las válvulas auriculoventriculares. Después son necesarios 0,02 a 0,03s para que el ventrículo acumule una presión suficiente  para abrir las válvulas semilunares; por tanto durante este periodo se producen contracción en los ventrículos. El periodo de contracción Isovolumétrica o isométrica, se produce cuando existe el aumento de la tensión en el músculo, pero con un acortamiento escaso o nulo de las fibras musculares.

Periodo de Eyección

Al final de la sístole comienza la relajación ventricular, durante unos 0,03 a 0,06s el músculo cardiaco sigue relajándose dando lugar al periodo de relajación Isovolumétrica o isométrica.  Durante este periodo las presiones interventriculares disminuyen rápidamente y regresan a sus bajos valores diastólicos.

Volumen Telediastólico

Durante la diástole el llenado normal de los ventrículos aumenta hasta aproximadamente 110 a 120 ml.

Volumen Telesistólico

A medida que los ventrículos se vacían durante la sístole, el volumen disminuye aproximadamente 70ml.

Volumen Sistólico

Volumen restante que queda en cada uno de los ventrículos aproximadamente 40 a 50 ml.

Función de las válvulas

Válvulas Auriculoventriculares

  • Las válvulas tricúspide y mitral impiden el flujo retrógrado de sangre de los ventrículos hacia las aurículas durante la sístole.
  • Las válvulas aorta y arteria pulmonar impiden el flujo retrógrado desde las arterias aorta y pulmonar hacia los ventrículos durante la diástole.
  • Válvula aórtica y arteria pulmonar, las elevadas presiones de las arterias al final de la sístole hacen que las válvulas semilunares se cierren súbitamente.

 

Funciones de los músculos papilares

            Los músculos papilares que se unen a los velos de las válvulas AV mediante las cuerdas tendinosas, tiran de los velos de las válvulas hacia dentro, hacia los ventrículos, para impedir que protuyan demasiado hacia las aurículas durante la contracción ventricular.

Curva de Presión Aórtica

            Se produce la denominada incisura en la curva de presión aórtica cuando se cierra la válvula aórtica; está producida por un corto período de flujo retrógrado de sangre inmediatamente antes del cierre de la válvula, seguido por la interrupción súbita del flujo retrógrado.

Relación de los tonos cardiacos con el bombeo cardiaco

            En una auscultación al corazón se identifican dos tonos, cuando se contraen los ventrículos primero se oye un ruido que está producido por el cierre de las válvulas AV. La vibración tiene un tono bajo y es relativamente prolongada, y se conoce como el primer tono cardíaco.

            Cuando se cierran las válvulas aórtica y pulmonar al final de la sístole se oye un golpe seco y rápido porque estas válvulas se cierran rápidamente, y los líquidos circundantes vibran durante un período corto. Este sonido se denomina segundo tono cardíaco.

Generación de trabajo del corazón

            El trabajo sistólico del corazón es la cantidad de energía que el corazón convierte en trabajo durante cada latido cardíaco mientras bombea sangre hacia las arterias. El trabajo minuto es la cantidad total de energía que se convierte en trabajo en 1 min. El trabajo del corazón se utiliza de dos maneras. Primero, con mucho la mayor proporción se utiliza para mover la sangre desde las venas de baja presión hacia las arterias de alta presión. Esto se denomina trabajo volumen-presión o trabajo externo. Segundo, una pequeña proporción de la energía se utiliza para acelerar la sangre hasta su velocidad de eyección a través de las válvulas aórtica y pulmonar. Este es el componente de energía del flujo sanguíneo del trabajo cardiaco.

Bombeo Ventricular

            Los componentes más importantes del diagrama son las dos curvas denominadas «presión diastólica» y «presión sistólica». Estas curvas son curvas volumen-presión. La curva de presión diastólica se determina llenando el corazón con volúmenes de sangre progresivamente mayores y midiendo la presión diastólica inmediatamente antes de que se produzca la contracción ventricular, que es la presión Telediastólica del ventrículo.

             La curva de presión sistólica se determina registrando la presión sistólica que se alcanza durante la contracción ventricular a cada volumen de llenado. Hasta que el volumen del ventrículo que no se está contrayendo no aumenta por encima de aproximadamente 150 ml, la presión «diastólica» no aumenta mucho. Por tanto, hasta este volumen la sangre puede fluir con facilidad hacia el ventrículo desde la aurícula. Por encima de 150 ml la presión diastólica ventricular aumenta rápidamente, en parte porque el tejido fibroso del corazón ya no se puede distender más y en parte porque el pericardio que rodea el corazón se ha llenado casi hasta su límite.

Resultado de imagen para Acontecimientos del ciclo cardíaco para la función del ventrículo izquierdo, que muestran los cambios de la presión auricular izquierda, de la presión ventricular izquierda, de la presión aórtica, del volumen ventricular, del electrocardiograma y del fonocardiograma.

 

Diagrama de Volumen presión durante el ciclo cardiaco 

            Las líneas rojas de la figura forman un bucle denominado diagrama volumen-presión del ciclo cardíaco para la función normal del ventrículo izquierdo. Está dividido en cuatro fases.

  • Fase I: Período de llenado. El diagrama volumen-presión durante la fase I se extiende a lo largo de la línea señalada «I», desde el punto A al punto B, en la que el volumen aumenta hasta 120 ml y la presión diastólica aumenta hasta aproximadamente 5 a 7 mmHg.
  • Fase II: Período de contracción Isovolumétrica. Durante la contracción Isovolumétrica el volumen del ventrículo no se modifica porque todas las válvulas están cerradas. Sin embargo, la presión en el interior del ventrículo aumenta hasta igualarse a la presión de la aorta.
  • Fase III: Período de eyección. Durante la eyección la presión sistólica aumenta incluso más debido a una contracción aún más intensa del ventrículo. Al mismo tiempo, el volumen del ventrí­culo disminuye porque la válvula aórtica ya se ha abierto y la sangre sale del ventrículo hacia la aorta. Por tanto, la curva señalada «III», o «período de eyección», registra los cambios del volumen y de la presión sistólica durante este período de eyección.
  • Fase IV: Período de relajación Isovolumétrica. Al final del período de eyección (punto D) se cierra la válvula aórtica, y la presión ventricular disminuye de nuevo hasta el nivel de la presión diastólica. La línea marcada como «IV» refleja esta disminución de la presión interventricular sin cambios de volumen.

Resultado de imagen para Acontecimientos del ciclo cardíaco para la función del ventrículo izquierdo, que muestran los cambios de la presión auricular izquierda, de la presión ventricular izquierda, de la presión aórtica, del volumen ventricular, del electrocardiograma y del fonocardiograma.

El área que encierra este diagrama volumen-presión funcional (la zona de color oscuro, denominada TE) representa el trabajo cardíaco externo neto del ventrículo durante su ciclo de contracción.

Precarga

La precarga es la presión Telediastólica cuando el ventrículo ya se ha llenado.

Poscarga

La Poscarga del ventrículo es la presión de la aorta que sale del ventrículo.

Energía química necesaria para la contracción cardiaca

Aproximadamente el 70-90% de esta energía procede normalmente del metabolismo oxidativo de los ácidos grasos, donde el 10-30%, aproximadamente, procede de otros nutrientes, especialmente lactato y glucosa. Por tanto, la velocidad del consumo de oxígeno por el miocardio es una medida excelente de la energía química que se libera mientras el corazón realiza su trabajo.

Eficacia de la contracción cardiaca

Durante la contracción del músculo cardíaco la mayor parte de la energía química que se gasta se convierte en calor y una porción mucho menor en trabajo. El cociente del trabajo respecto al gasto de energía química total se denomina eficiencia de la contracción cardíaca, o simplemente eficiencia del corazón. La eficiencia máxima del corazón normal está entre el 20 y el 25%.

 

REGULACIÓN DEL BOMBREO CARDIACO

            Cuando una persona se encuentra en reposo el corazón bombea de 4 a 6 L de sangre por minuto, mientras que cuando se encuentra realizando ejercicio de 4 a 7 veces esa cantidad.

Regulación intrínseca de bombeo cardiaco: el mecanismo de Frank-Starling

            La capacidad intrínseca del corazón de adaptarse a volúmenes crecientes de flujo sanguíneo de entrada se denomina mecanismo de Fank-Starling del corazón. Básicamente éste mecanismo quiere decir que cuando más se distiende el musculo cardiaco durante el llenado, mayor es la fuerza y mayor la cantidad de sangre que bombea hacia la aorta. Dicho de otra manera, dentro de los límites fisiológicos el corazón bombea toda la sangre que llega procedente de las venas.

¿Cuál es la explicación del mecanismo de Frank-Starling?

Cuando una cantidad adicional de sangre fluye hacia los ventrículos el musculo cardiaco es distendido hasta una mayor longitud, esto hace que el musculo se contraiga con más fuerza porque los filamentos de actina y miosina son desplazados hacia un grado más optimo de superposición para generar fuerza. Por lo tanto, el ventrículo debido al aumento de la función de bomba, bombea automáticamente la sangre adicional hacia las arterias. A éste factor se le suma otro que es el del aumento del volumen. La distensión de la pared auricular derecha aumenta la frecuencia cardiaca de 10 a 20%, esto contribuye al aumento de bombeo de sangre, aunque su contribución es mucho menor a la del mecanismo de Frank-Sterling.

 Curvas de función ventricular

Una de las mejores formas para expresar la capacidad funcional de los ventrículos de bombear sangre son las curvas de función ventricular.

kokoro.png

Éstas gráficas explican el mecanismo de Frank-Starling. Es decir, a medida que los ventrículos se llenan a presiones auriculares altas, se produce un aumento en el volumen de ambos ventrículos y la fuerza de contracción del musculo cardiaco, lo que hace que el corazón bombee mayor cantidad de sangre a las arterias.

Control del corazón por nervios simpáticos y parasimpáticos

Resultado de imagen para Control del corazón por nervios simpáticos y parasimpáticos

La eficiencia del bombeo de sangre del corazón también está controlada por los nervios simpáticos y parasimpáticos. Para niveles dados de presión auricular de entrada, la cantidad de sangre se bombea cada minuto (gasto cardiaco) con frecuencia se aumenta en un 100% por estimulación simpática y para la parasimpática o vagal es lo contrario ya que el gasto puede disminuir a un valor de cero o casi cero.

Mecanismos de excitación del corazón por los nervios simpáticos

La estimulación simpática aumenta la frecuencia normal en seres humanos, como por ejemplo  en los adultos jóvenes  de 70 latidos por minuto  a 180 a 200, o en ocasiones hasta a 250 latidos por minuto. Aumentando así el volumen de sangre que se bombea, la presión de eyección y también el gasto cardiaco. Por el contrario la inhibición de los nervios simpáticos del corazón disminuye la función de bomba del corazón en un 30%, es decir, disminuye la frecuencia cardiaca como de la fuerza de contracción del musculo ventricular

Estimulación parasimpática (vagal) del corazón

La estimulación parasimpática intensa puede llegar a interrumpir los latidos cardiacos durante segundos y reducir a 40 latidos por minuto, así como también la contracción del musculo cardiaco en un 20 o 30 %. Ésta reducción tanto de latidos como de contracciones puede reducir el bombeo ventricular en un 50% o más.

 Efecto de la estimulación simpática y parasimpática sobre la curva de función cardiaca

Las curvas muestran que a cualquier presión auricular derecha, el gasto cardíaco aumenta durante el aumento de la estimulación simpática y disminuye durante el aumento de la estimulación parasimpática.

Efecto de los iones potasio y calcio sobre la función cardiaca

Efecto de los iones potasio

Los exceso de potasio hace que el corazón esté dilatado, también reduce la frecuencia cardiaca. Grandes cantidades de potasio puede bloquear la conducción del impulso cardíaco desde aurículas hacia los ventrículos, produciendo debilidad del corazón y una alteración del ritmo tan grave que provocaría la muerte.

Efecto de los iones calcio

Tiene un efecto contrario al potasio es decir produce más rápidamente contracciones espáticas. Por lo contrario el déficit de calcio produce flacidez cardiaca.

Las contracciones de calcio en la sangre normalmente están reguladas en un intervalo muy estrecho, por lo cual sus efectos rara vez son clínicos.

 

Efecto de la temperatura sobre la función cardiaca

El aumento de temperatura como por ejemplo cuando se tiene fiebre puede llegar a duplicar los latidos cardiacos por minuto. Al contrario cuando se tiene una baja de temperatura corporal la disminución de latidos son solo algunos.

El incremento de la carga de presión arterial (hasta un límite) no disminuye el gasto cardiaco

El aumento de la presión en la aorta no reduce el gasto cardíaco hasta que la presión arterial media aumenta por encima de aproximadamente 160 mmHg. En otras palabras, durante la función normal del corazón a presiones arteriales sistólicas (80 a 140 mmHg) el gasto cardiaco está determinado casi por la facilidad del flujo sanguíneo a través de los tejidos corporales, que controlan el retorno venoso de la sangre hacia el corazón.

 

 

 

 

 

 

 

 

Destacado

Importancia del desarrollo de la ciencia y un breve análisis a los aportes más trascendentales para la humanidad

Alejandro Aguirre F.

Universidad Central del Ecuador

Química de Alimentos

El ser humano desde el principio de los tiempos ha tratado de ir comprendiendo su entorno y paulatinamente ir adquiriendo sin número saberes para poder garantizar la supervivencia hombre como comunidad y especie, misma que emplea la razón como medio de llegada al conocimiento. Este ensayo busca sintetizar de manera breve cada período de la historia humana; enfocándose en los aspectos más relevantes del conocimiento que significaron un aporte al saber humano; empezando por la prehistoria cuyo conocimiento en su totalidad eran de origen empírico originados desde la experiencia, dichos conocimientos dieron paso al hombre de la edad antigua o denominada cono edad de las sociedades esclavistas para proseguir con la edad media o edad del oscurantismo humano y consecuencia de esta, a pesar de su leve aporte en el conocimiento, permite la llegada del Modernismo que significó el renacimiento del hombre, que finalmente forja bases para el nacimiento de la edad Contemporánea. Considerando aquello es que la ciencia como tal, es un proceso sistemático que se va dando en transcurso de la historia del hombre. Dicha hipótesis pretende demostrar que los conocimientos y aportes que se fueron adquiriendo a lo largo de la historia fueron de vital importancia para el avance del conocimiento humano.

Los inicios del conocimiento humano están comprendidos en la Prehistoria, denominada así porque la historia nace con la escritura, estos conocimientos son un cúmulo de experiencias que permiten al hombre primitivo empezar su desarrollo. La prehistoria según (Grimal, P. 1999). Comprende ciclos de evolución humana desde el aparecimiento el Homo Erectus desde hace aproximadamente 1,5 millones de años hasta los 300.000 a 100.000 años atrás. Sin embargo la especie más importante y que prevaleció en la historia es el Cro-Magnon o más conocido como Homo Sapiens Sapiens entre los 100.000 a 35.000 años de antigüedad, en el paleolítico superior. En este punto se produce una etapa de transición en donde el ser humano era nómada y empezó a incursionar en el campo de la cacería y recolección de frutos, este proceso se da en el mesolítico entre los 10.000 a 7.000 a.C. La edad de piedra llega a su fin con el Neolítico entre los 7.000 a.C. A los 3.600 a.C. aprox. Estos procesos se dieron en el cercano Oriente, Israel, Egipto, Líbano, e Iraq. En esta etapa suceden aportes de gran importancia ya que el ser humano empieza con la agricultura y la ganadería por lo tanto, el ser humano se vuelve poco a poco sedentario.

Vestigios encontrados nos permiten conocer que algunos instrumentos para moler, cerámicas vasijas y las construcciones megalíticas. Lo que según varios antropólogos se cree el inicio de pueblos y ciudades. A partir de los 3.000 a.C. comienza la segunda parte de la prehistoria, con las distintas edades de los metales que son: cobre, bronce y hierro. Lo que quiere decir que el ser humano empieza a desarrollar la metalurgia por ende la forja y el desarrollo de armas corto-punzantes de metal. Este proceso se da en la Europa occidental, oriental y central hasta aproximadamente el 1800 a.C.

La edad antigua contempla uno de los aportes más importantes a la ciencia el mismo que puede ser comprendido como quizá el de mayor relevancia y es el aparecimiento de la escritura. Pues bien la edad antigua o también edad clásica está caracterizada por ser una época en donde el esclavismo tuvo que ver con el crecimiento y desarrollo de grandes civilizaciones que pueden ser consideradas las cunas de la ciencia y el conocimiento e incluye la cultura. El aparecimiento de la escritura permitió tener un registro de los comportamientos humanos en este período de la historia. Las culturas que sobresalieron con sus aportes son: la egipcia, mesopotámica, fenicia, griega y romana; con sin fin de aportes donde de manera breve podemos citar la invención del papiro en Egipto, o el alfabeto ampliamente conocido creador por los fenicios, sin mencionar la cantidad enorme de aportes que realizaron griegos y romanos a lo largo de siglos. El conocimiento científico como tal, empieza a manifestarse en Mesopotamia y Egipto a la par aunque su organización racional aún no se hallaba definida. Realizaron importantes alcances en el campo de la matemática, la ingeniería, y la escritura. Según Jackson, W.1952. Tales de Mileto hacia el siglo VI a.C. empieza a estudiar al planeta Tierra y de acuerdo a sus preceptos sostuvo su hipótesis más conocida que mencionaba que la Tierra era de forma de un disco aplanado que flotaba sobre un elemento universal definido como agua. Este concepto de Mileto fue el punto de arranque en el conocimiento científico en la edad antigua.

Los egipcios a su vez fueron una sociedad esclavista que data aproximadamente entre el 2800 a.C. hasta el 1080 a.C. con la decadencia del imperio. Esta cultura aportó con grandes avances para la ciencia de la época. Fueron de las primeras civilizaciones de las que se tenga registro, que hayan utilizado el reloj solar y el calendario, por lo que se les atribuye su creación, mejoraron significativamente la agricultura desarrollando grandes construcciones para riego y cultivo en zonas áridas, lograron llevar a la agricultura a otra escala, tuvieron aportes en la metalurgia e ingeniería con lo que podemos citar sus construcciones más famosas, las pirámides, y varios obeliscos tallados en piedra horizontal. Quizás el aporte más importante para el ser humano fue sentar pautas para la invención del alfabeto con un sistema jeroglífico y la invención del papiro y telas muy trabajadas. Algunos expertos aseguran la invención del papel y el vidrio sin embargo no se ha podido demostrar la totalidad de esta hipótesis. En al ámbito de la anatomía aprendieron a embalsamar los cuerpos y se tiene registros sobre disecciones y ciertos intentos de curar tuberculosis, sostenían que el origen de todos los males estaba situado en la cabeza por lo que los sacerdotes procedían a operar o perforar zonas craneales con fines médicos. Conocían el número 0, y formaron sistemas decimales en sus cálculos

A la par en oriente la cultura mesopotámica ubicada en la historia entre los 4200 a 539 a.C. Instauran el código de Hammurabi entre 1792-1750 a.C. lo que se conoció como ley de Talión; en honor a su ejecutor, que es uno de los primeros preceptos o códigos que modificaban los comportamientos humanos en una sociedad. Se les atribuye la invención de la rueda. Construcciones basadas en logaritmos matemáticos como los Zigurats entre otros complejos arquitectónicos, incursionaron en la astronomía vinculada con agronomía, inventan el sistema sexagesimal. Inventaron también la escritura cuneiforme que trascendió hasta el imperio persa.

Los fenicios hacia los 2400 a.C. revolucionan el mundo de la navegación con la invención de la Galera, desarrollaron factorías y se cree por sus vestigios inventaron el vidrio transparente, y además descubrieron el “múrice”, tinte con el que se lograba el color purpura muy apreciado en la época. Inventaron un sistema reducido de 22 letras en un alfabeto que se volvió solido con la cultura griega. Este sistema se difundió por todo el mundo excepto en territorios asiáticos y americanos por lo que se mantuvo su sistema de escritura tradicional. A la par los hebreos hacia la misma época instauraban el monoteísmo recopilando un conjunto de libros de oriente medio para formar la biblia, fundamento principal del cristianismo que en el campo de la ciencia no es importante mencionar más que el conocimiento y la autoridad para ejercerlo provenía de los sacerdotes.

Los griegos desde el siglo VIII a.C. hasta aproximadamente el siglo VI a.C. fue en sí misma, la más importante y fructífera en el ámbito de la ciencia en la edad antigua. Fueron los primeros en incursionar en la química pues Tales de Mileto estudió el agua, Anaxímenes el aire, Anaximandro el elemento infinito llamado apeirón, Heráclito el fuego. Demócrito inició con el fundamento más importante para el nacimiento de la Alquimia, pues sostenía la existencia del átomo, y su mayor exponente Pitágoras sostuvo que la Tierra era redonda y giraba en torno a un fuego central siguiendo una trayectoria redonda. Ya hacia la era helénica Erastóteles quien era un importante matemático que dominaba también otras ramas como la astronomía y la geografía logra hacer un cálculo casi preciso sobre las dimensiones de la Tierra, su par Hiparco de Nicea instaura los primeros fundamentos trigonométricos, por otro lado Herofilo y Erasistrato empiezan el estudio de la anatomía y fisiología en la disección.

La gran civilización griega llega a su fin con la expansión y dominio romano que a su defensa no aporto demasiado en la ciencia para el hombre sin embargo después de la destrucción que propinó Roma a Cartago y Corintio en 146 a.C. la investigación tuvo un primer receso por su poca casi nula producción científica hasta el año II d.C. con la teoría geocéntrica de Tolomeo además con la toma de la cultura griega produjeron obras sobre medicina de la mano de Galeno y de esta manera con la instauración del cristianismo finaliza la edad antigua para dar paso a otra etapa de la historia humana conocida como edad media.

Pues bien la edad media o edad medieval, empieza en el 476 a.C. aproximadamente hasta el 1453 d.C. esta edad esta subdividida en una etapa semiproductiva y una etapa de producción nula de conocimientos debido a que la guerra de los cien años frenó el avance de la ciencia y posterior a ello las diferentes enfermedades que azotó la edad media en el siglo XVI con la peste, pandemia que desapareció una parte importante de población medieval. Los grupos humanos que existieron en esta etapa fueron los mayas y otros pueblos latinos, griegos, China, parte del mundo Árabe, además de India. Empezando con los grupos humanos latinos no existió una producción importante de conocimiento a excepción de la cultura maya que fue la primera de todos los pueblos en utilizar el número 0 en su sistema de conteo. En China se empezó la fabricación del papel, la pólvora y tinta, en el campo aritmético el triángulo aritmético, matrices y métodos de resolución de ecuaciones figuraban como un avance europeo en esta época y finalmente la numeración indo-arábica utilizada hasta la actualidad.

Posteriormente a la edad media, inicia el modernismo con la caída del imperio Bizantino en 1453 y finaliza con la revolución Francesa en 1789, en este periodo se retoma los avances científicos, su principal representante fue Galileo Galilei quien es considerado el padre de la física, plantea la primera ley del movimiento, realizó estudios en el plano inclinado. En 1543 Nicolás Copérnico postula su ley heliocéntrica que sostiene que los planetas giran alrededor del sol. Ya en 1619 Johannes Kepler postula la tercera ley del movimiento planetario que sostiene que los planetas giran alrededor del sol de manera elíptica. Entre 1660 a 1665, Robert Hooke aporto significativamente a la ciencia con la observación de células vegetales del corcho y además postuló la Ley de la Elasticidad. En 1687 Newton revoluciona la dinámica con sus leyes, particularmente con la ley de la gravitación universal y sus leyes del movimiento. En 1774 R. Priestley descubre accidentalmente el oxígeno y finalmente Lavossier padre de la química quien postula la ley de la conservación de la materia. E. Janner en 1779, inició la vacunación contra la viruela.

Finalmente a partir de la revolución francesa marcada posteriormente con el hito de la revolución industrial el ser humano aceleró a pasos agigantados la ciencia puesto que el método científico ya se encuentra definido como tal, el principal invento se da de la mano de James Watt en 1790 con ayuda de sus colaboradores, con la máquina de vapor que inicialmente fue concebida con la idea de aportar a la industria textil que repuntaba en la época, pero fue empleado más bien en el desarrollo de motores como la máquina de vapor, esto significó el desarrollo de ferrocarriles y barcos dinamizando los avances. Por esta razón en Panamá hacia el año de 1889 se crea el mítico canal de Panamá. En pleno siglo XIX y XX despuntaron inventos tales como, teléfono, radio. El automóvil además de aviones o más bien dicho el aeroplano. La sociedad empezó a sentir un respeto excepcional por la tecnología y los beneficios que esta les brindaba.

Entre la primera guerra Mundial y la época de la depresión además la caída del Wall Street. Hizo que la tecnología se vuelva hacia un lado destructivo, finalizada esta etapa se emprende un camino hacia la globalización posterior a la Guerra Fría. Este proceso de globalización que se está viviendo en la actualidad ha generado avances significativos en campos nuevos de la ciencia además de avances en la comunicación que cada vez busca ser más dinámica y generalizada. Así lo afirma Jackson, W. 1952.

De esta manera podemos afirmar que la ciencia es un proceso sistematizado muy importante para el ser humano que necesitó un desarrollo cronológico de proyectos, ideas e hipótesis que en el transcurso de la historia se fueron probando, variando y sometiendo a verificaciones por ello afirmamos que es sistematizado pues sigue una estructura lógica de acuerdo a los avances que poco a poco fue adquiriendo el ser humano y almacenándolos para beneficio de la especie mientras las generaciones de esta prosperen.

REFERENCIAS

  • Grimal, P. (1999). “El Alma Romana”. Espasa, Madrid.
  • Jackson,W. (1952). “Enciclopedia Práctica Jackson”. The Colonial Press Inc.
  • Saita, A. (1989). “Guía crítica de la Historia Antigua”.C.E., México,
Destacado

Adiciones y correcciones para la tabla periódica en Español. (Acuerdo IUPAC 28 de noviembre del 2016 actualmente vigente)

     El pasado  28 de noviembre del 2016  la IUPAC, (International Union of Pure and Applied Chemistry) publicó la renovada tabla de los Elementos Químicos, presentando en ella 118 elementos químicos reconocidos y aceptados, con sus respectivos símbolos y nombres. Y no es nada raro que a más de uno le de un verdadero dolor de cabeza con respecto a ciertas pronunciaciones y abreviaturas sea en la nomenclatura química como en la formulación. Sin embargo es muy importante hacerlo de forma correcta con la finalidad de no cometer errores. Dicha terminologia se adapta al informe realizado por IUPAC y acoge recomendaciones realizadas por la Real Academia de la Lengua Española con respecto a ciertas dificultades que se presentaban con ciertos  elementos; dicho trabajo fue realizado por  un equipo de trabajo de la RSEQ, (Real Sociedad Española de Química) donde se recomendaba la traducción de los elementos 113, 115, 117 y 118;  como Nihonio (Nh), Moscovio (Mc), Tennesso (Ts) y Oganessón (Og), respectivamente. Sin embargo  el trabajo no se detuvo en el 2016 y los estudios respectivos para la terminologia continuaron hasta 2017 , cuando el 1 de febrero de dicho año en La Real Academia de Ciencias Exactas, Fìsicas y Naturales, varios organismos y delegados de la IUPAC decidieron adoptar un criterio unificado sobre la grafía en español de algunos elementos químicos de la nueva actualización. Por lo que a continuación presentaré los acuerdos alcanzados:

  1. Se acepta como variante la palabra Cinc para el elemento con número atómico 30 Zinc.
  2. Se mantiene la escritura para la palabra Kriptón  de manera preferencial para el elemento con número atómico 36 de la tabla periódica, sin embargo se acepta como variante registrada la grafía Criptón.
  3. Se dá como preferencia la grafía Circonio al nombre del elemento número 40 de la tabla periódica y se registra como variante la grafía Zirconio.
  4. Para el nombre del elemento con número atómico 52 de la tabla periódica se mantiene la preferencia Telurio y se acepta como  variable la denominación Teluro.
  5. Continuar con la grafía Yodo, como nombre del elemento con numero atómico 53 y seguir registrando Iodo como variante.
  6. Queda suprimido el uso de la terminología Tantalio,  como variante del Tántalo  elemento de número atómico 73, cuya terminología es única según el informe determinado por la IUPAC.
  7. Se dá preferencia al uso del término Wolframio cuya variante a utilizar puede ser volframio,  para el elemento químico 74. A pesar de que el nombre dado por la IUPAC en inglés sea el Tungsten  y español Tungsteno. La RSEQ, reivindica el nombre dado por los hermanos Delhuyar químicos riojanos quienes fueron los primeros en aislar el elemento.
  8. Mantener el par lawrencio/laurencio, con preferencia por la primera forma, en el nombre del elemento de número atómico 103.
  9. La IUPAC acepta la eliminacion de la denominación Kurchatovio perteneciente al número  atómico 104 (denominación que se adopto durante la Guerra Fría por los Rusos que competía hasta la actualidad con la denominacion correcta y única Rutherfordio).
  10. Se sustituye la grafía Hassio  por Hasio para el elemento  de número atómico 108. Se suprime Hassio hasta como variante.  ya que la la secuencia grafica -ss- es ajena al sistema ortográfico español; de seguirse usando la terminología Hassio  se recomienda usar cursiva mas el uso de redonda es exclusivo para hasio debido a que a partir del presente informe  se  asume el uso de Hassio como grafía de lengua muerta.
  11. Se sustituye la forma Darmstadio por Darmstatio para el elemento con número atómico 110. Debido a confusiones en las debidas pronunciaciones del inglés y alemán dado el uso de la d y t.
  12. Se establece las formas Teneso y Oganesón como nombres españoles de los nuevos elementos de números atómicos 117 y 118, respectivamente.
  13. Finalmente se acepta la regla: m antes de p o b  para los elementos de nombre provisional como por ejemplo: ununpentium  en inglés por unumpentio en español.; y a la vez se acepta hibridación de la regla puede usarse tanto la terminología inglesa como la española por tratarse de elementos que aun no han sido debidamente aislados.

nueva tabla peródica

DOCUMENTO ORIGINAL DE LA RSEQ: Nombres y símbolos en español de los elementos aceptados por la IUPAC el 28 de noviembre de 2016 acordados por la RAC, la RAE, la RSEQ y la Fundéu

BIBLIOGRAFÍA

  • IUPAC Periodic Table of the Elements, versión fechada el 28 de
    noviembre de 2016, bit.ly/2bjmHcz, visitada el 08/02/2017.
  • IUPAC announces the names of the elements 113, 115, 117
    and 118, IUPAC recent posts, 30/11/2016; bit.ly/2fPyFQg,
Destacado

Electrocardiograma normal y cómo interpretarlo.

La corriente eléctrica que atraviesa el corazón en los impulsos cardíacos, también se propaga por los tejidos adyacentes que lo rodean, propagándose así también a la superficie corporal. Al momento de colocar dos electrodos en la piel a los costados opuestos del corazón, se pueden registrar los potenciales eléctricos que se forman, y este registro es el electrocardiograma.

El electrocardiograma normal está conformado por ondas de despolarización  P, Q, R, S, estas tres últimas agrupadas en un complejo (QRS) que se producen por los potenciales eléctricos que se  generan en la  despolarización de los ventrículos, mientras que la onda P se causa por los potenciales que se crean al despolarizar a las aurículas. Se conoce a la onda T como onda de repolarización ya que se origina por los potenciales que se generan cuando los ventrículos se recuperan de la despolarización, este proceso normalmente aparece en el musculo ventricular entre 0,25 y 0,35 segundos después de la despolarización.Resultado de imagen para electrocardiograma normal

Ondas de despolarización frente a ondas de polarización.-

En una fibra cardiaca el potencial normal interior es de carga negativa, mientras que el externo es positivo, a este estado se le conoce como fibra polarizada. La despolarización se propaga de izquierda a derecha, y es cuando el potencial negativo de la fibra se invierte y se hace ligeramente positivo  en el interior y negativo  en el exterior, esto se puede apreciar en el literal A de la figura a continuacion. El valor que registra el electrocardiograma en ese momento es positivo, ya que solo la primera mitad de la fibra esta despolarizada, por ello el electrodo izquierdo se encontrará en una zona de negatividad, mientras que el derecho en una zona de positividad. Cuando el registro ha alcanzado hasta la parte intermedia se dice que ha llegado hasta un valor positivo máximo y cuando vuelve al estado basal es porque la fibra se ha despolarizado por completo.

La polarización también se propaga de izquierda a derecha, y es cuando la fibra se vuelve a su estado eléctrico inicial. El musculo cardiaco se repolariza hasta la mitad por lo tanto  el electrodo izquierdo se encontrará en una zona de positividad y el derecho en una de negatividad, dando como resultado un registro negativo, vuelve al cero cuando los dos electrodos se encuentran en una misma zona eléctrica y esto sucede cuando la fibra ha terminado de polarizarse por completo.

12
Registro de la onda de despolarización y polarización en una fibra cardiaca.

Relación del potencial de acción monofásico del musculo  ventricular con las ondas QRS y T del electrocardiograma estándar.-

El potencial de acción monofásico dura normalmente entre 0,25 y 0,35 segundos. El ascenso de este potencial de acción está producido por la despolarización y la vuelta del potencial al nivel basal producido por la polarización. El complejo QRS aparece al principio del potencial de acción monofásico y la onda T aparece al final. Nótese que no se registra ningún potencial en el electrocardiograma cuando el musculo está totalmente polarizado o despolarizado y esto se debe a que existe flujo eléctrico de un ventrículo hacia otro, solo si encuentra parcialmente polarizado o despolarizado.

Resultado de imagen para Potencial de acción monofásico de una fibra muscular ventricular durante la función cardíaca normal.
Relación de las contracciones ventriculares y auriculares con el electrocardiograma.
13.png
Relación de las contracciones ventriculares y auriculares con el electrocardiograma.

Calibración del voltaje y el tiempo del electrocardiograma

Los registros de electrocardiogramas hacen con líneas de calibración adecuadas sobre papel de registro. Cuando se utiliza un calibrador de pluma estas líneas ya están trazadas en el papel registrador, esto también ocurre cuando se utiliza  electrocardiógrafos en el cual se va registrando los datos en el papel al mismo tiempo que se  realiza el electrocardiograma.

En el papel de registro de un electrocardiograma las líneas se encuentran de manera horizontal divididas en 10, estas pueden estar ubicadas hacia arriba o hacia abajo en el electrocardiograma y representan un 1mV, con positividad hacia arriba y negatividad hacia abajo. Las líneas verticales representan la calibración del tiempo. Un electrocardiograma típico se realiza con una velocidad de 25mm/s, aunque se pueden utilizar velocidades más rápidas, cada 25mm en dirección horizontal corresponden a 1s, y cada segmento de 5mm, indicado por líneas verticales oscuras, representa a 0.2s. Después de los intervalos de 0.2s, estas se dividen en 5 intervalos más pequeñas que se representan con líneas más finas, y cada una de estas representa 0.04s.

14.jpg

Voltajes normales en  el electrocardiograma

Estos voltajes dependerán de la posición en la que se encuentren los electrodos ubicados en el cuerpo y su proximidad en el corazón. Cuando un electrodo se encuentra colocado en un ventrículo  y otro está alejado del corazón, el voltaje complejo QRS puede ser hasta de 3 a 4mV. Éste voltaje puede aumentar a 110mV si los electrodos se encuentran directamente en la membrana del musculo cardiaco.

Cuando los electrodos se encuentran en una pierna y en un brazo el voltaje en el complejo QRS es de 1.0 a 1.5mV desde el punto más elevado de la onda R hasta el más profundo  de la onda S; el voltaje de la onda P está entre 0.1 y 0.3mV, y el de la onda T esta entre 0.2 y 0.3mV.

Resultado de imagen para colocación de los electrodos en el electrocardiograma

Intervalo P-Q o P-R

El intervalo P-Q es el tiempo que transcurre entre el comienzo de la onda P y el comienzo del complejo QRS es el intervalo que hay entre el inicio de la excitación eléctrica de las aurículas y el inicio de la excitación de los ventrículos.  El intervalo P-Q normal es de aproximadamente 0.16s y se lo llama  intervalo P-Q  ya que es probable que no haya onda Q.

Intervalo Q-T

El intervalo en el que se realiza la contracción del ventrículo que dura casi desde el comienzo de la onda Q (onda R si no hay onda Q) hasta el final de la onda T se lo conoce como intervalo Q-T y es de  aproximadamente  0.35s.

Determinación de la frecuencia del latido cardiaco a partir del electrocardiograma

Al realizarse un electrocardiograma es fácil determinar la frecuencia del latido cardiaco  cardiaca ya que la frecuencia cardiaca es el recíproco del intervalo de tiempo entre dos latidos consecutivos. El intervalo de tiempo entre dos latidos se determina a partir de las líneas de calibración de tiempo, si este intervalo es de 1s la frecuencia cardiaca es de 60 latidos por minuto. El intervalo normal entre dos complejos QRS es de aproximadamente 0.83s en una persona adulta es decir una frecuencia cardiaca de 60/0.83 veces por minuto o 72 latidos por minuto.

MÉTODOS DE REGISTROS ELECTROCARDIOGRÁFICOS

Algunas veces las corrientes eléctricas que genera el músculo cardiaco durante los latidos cardíacos modifican las potencias y polaridades eléctricas de los latidos respectivos del corazón en menos de 0.01s. Para lo cual es fundamental utilizar aparatos que al realizar electrocardiogramas puedan responder con rapidez a estos cambios potenciales.

Registro para electrocardiógrafos

Muchos electrocardiógrafos clínicos modernos utilizan sistemas computarizados y salidas electrónicas, mientras que otros utilizan un registrador directamente con pluma sobre una hoja de papel en movimiento. La pluma que es un tubo fino conectado a un pocillo de tinta y su extremo de registro conectado a un sistema de electroimán potente que es capaz de mover a la pluma de arriba hacia abajo a alta velocidad; el movimiento de esta pluma está controlado por amplificadores electrónicos conectados a los electrodos que se encuentran ubicados en el cuerpo del paciente. Otros sistemas utilizan el calor, ya que el papel se ennegra cuando es expuesta al mismo y la pluma no necesita tinta ya que en ella pasa corriente eléctrica que la calienta y la hace actuar sobre el papel.

Resultado de imagen para el electrocardiograma normal paciente maquina

FLUJO DE CORRIENTE ALREDEDOR DEL CORAZÓN DURANTE EL CICLO CARDIACO

  • Registro de las potencias eléctricas a partir de una masa parcialmente despolarizada del musculo cardiaco sincitial

Derivaciones electrocardiográficas

Tres derivaciones bipolares de las extremidades

En este grafico se muestra las conexiones eléctricas entre las extremidades del paciente y el electrocardiógrafo para registrar electrocardiogramas de las denominadas derivaciones bipolares. Se ha superpuesto el triángulo de Einthoven en el tórax.  El término bipolar significa que el electrocardiograma se registra a partir de dos electrodos que están localizados en lados diferentes del corazón, en este caso las extremidades. Así, una derivación no es un único cable que procede del cuerpo sino una combinación de dos cables y sus electrodos para formar un circuito complejo entre el cuerpo y el electrocardiógrafo. En cada uno de estos el electrocardiógrafo se representa mediante un medidor eléctrico aunque el electrocardiógrafo real es un medidor de registro de alta velocidad con papel móvil.

Resultado de imagen para el triángulo de Einthoven en el tórax. 

Derivación I.

Cuando se registra la derivación 1, el terminal negativo del electrocardiógrafo está conectado al brazo derecho y el terminal positivo al brazo izquierdo. Por lo tanto, cuando el punto el en que el brazo derecho se conecta con el tórax es electronegativo respecto al punto en el que se conecta el brazo izquierdo el electrocardiógrafo registra una señal positiva, es decir, por encima de la línea de voltaje cero del electrocardiograma. Cuando ocurre lo contrario el electrocardiógrafo registra una señal por debajo de la línea.

Derivación II.

El terminal negativo del electrocardiógrafo se conecta al brazo derecho y el terminal positivo a la primera pierna izquierda. Por tanto, cuando el brazo derecho es negativo respecto a la pierna izquierda, el electrocardiógrafo registra una señal positiva

Derivación III.

El terminal negativo del electrocardiógrafo se conecta al brazo izquierdo y el terminal positivo a la pierna izquierda. Esto significa que el electrocardiógrafo registra una señal positiva cuando el brazo izquierdo es negativo respecto a la pierna izquierda.

Resultado de imagen para derivacion del electrocardiograma

Triángulo de Einthoven

Alrededor de la zona del corazón. Este diagrama ilustra que los dos brazos y la pierna izquierda formen vértices de un triángulo que rodea el corazón. Los dos vértices de la parte superior  del triángulo representan los puntos en los que los dos brazos se conectan eléctricamente a los líquidos que rodean el corazón y el vértice izquierdo, es el punto en que la pierna izquierda se conecta a los líquidos.

Ley de Einthoven

Afirma que en cualquier momento dado se conocen los potenciales eléctricos de dos cualesquiera de las tres derivaciones electrocardiográficas bipolares de las extremidades, se puede determinar matemáticamente la tercera simplemente sumando las dos primeras. A de tenerse en cuenta, sin embargo, que se deben observar los signos positivos y negativos de las diferentes derivaciones cuando se haga esta  suma.

Electrocardiogramas normales registrados en las tres derivaciones bipolares estándar de las extremidades

Es evidente que los electrocardiogramas de estas tres derivaciones son similares entre sí porque todos registran ondas P positivas y ondas T positivas, y la mayor parte del complejo QRS también es positiva en todos los electrocardiogramas

Cuando se analizan los tres electrocardiogramas se puede demostrar, con mediciones cuidadosas teniendo en cuenta las polaridades, que en cualquier momento dado la suma de los potenciales de las derivaciones  1 y 3 es igual al potencial de la derivación 2 lo que ilustra la validez de la ley de Einthoven.

Cuando se quiere diagnosticar diferentes arritmias cardiacas, porque el diagnostico de las arritmias depende principalmente de las relaciones temporales entre las diferentes ondas del ciclo cardiaco pero cuando se desea diagnosticar la lesión del musculo ventricular o auricular o del sistema de conducción de Purkinje si importa mucho que derivaciones se registran porque las alteraciones de la contracción del musculo cardiaco o de la conducción del impulso cardiaco modifican los patrones de los electrocardiogramas en algunas derivaciones, aunque pueden no afectar a otras.

Resultado de imagen para Electrocardiogramas normales registrados en las tres derivaciones bipolares estándar de las extremidades

Derivaciones del tórax (derivaciones precordiales)

Se registran electrocardiogramas con un electrodo situado en la superficie anterior del tórax directamente sobre el corazón. Este electrodo se conecta al terminal positivo del electrocardiógrafo y el electrodo negativo, denominado electrodo indiferente, se conecta a través de resistencias eléctricas iguales al brazo derecho, al brazo izquierdo y a la pierna izquierda al mismo tiempo.

Habitualmente se registran 6 derivaciones estándar del tórax, una cada vez, desde la pared torácica anterior, de modo que el electrodo del tórax se coloca secuencialmente en los 6 puntos conocidos como derivaciones: v1,v2,v3,v4,v5,v6.

Resultado de imagen para Derivaciones del tórax (derivaciones precordiales)

En las derivaciones  los registros QRS del corazón normal son principalmente negativos porque, el electrodo del tórax de estas derivaciones está más cerca de la base del corazón que de la punta, y la base del corazón está en la dirección de la electronegatividad durante la mayor parte del proceso de despolarización ventricular. Por el contrario, los complejos QRS de las derivaciones  son principalmente positivos porque el electrodo del tórax de estas derivaciones está más cerca de la punta cardiaca, que está en la dirección de la electro-positividad durante la mayor parte de la despolarización.

Derivaciones unipolares ampliadas en las  extremidades

En este tipo de registro, dos de las extremidades se conectan mediante resistencias eléctricas al terminar negativo del electrocardio y la tercera extremidad de conecta la terminal positivo. Cuando el terminal positivo está en el brazo derecho, la derivación se conoce como derivación aVR, cuando está en el brazo izquierdo es la derivación aVL  y cuando está en la pierna izquierda es la derivación aVF. Se muestran los registros normales de las derivaciones unipolares ampliadas de las extremidades. Son similares a los registros de las derivaciones estándar de las extremidades excepto que el registro de la derivación aVR está invertido.

Resultado de imagen para Derivaciones unipolares ampliadas en las  extremidades

BIBLIOGRAFÍA

-GUYTON Y HALL. (2011). Tratado de Fisiología Medica. Cap. 11, décimo segunda edición. Editorial Elsevier. Barcelona-España

 

Destacado

ESPECTROSCOPIA UV-Visible (UV-VIS).

¿De qué se trata?

La espectroscopia UV-Vis está basada en el proceso de absorción de la radiación ultravioleta-visible (radiación con longitud de onda comprendida entre los 160 y 780 nm) por una molécula. La absorción de esta radiación causa la promoción de un electrón a un estado excitado. Los electrones que se excitan al absorber radiación de esta frecuencia son los electrones de enlace de las moléculas, por lo que los picos de absorción se pueden correlacionar con los distintos tipos de enlace presentes en el compuesto. Debido a ello, la espectroscopia UV-Vis se utiliza para la identificación de los grupos funcionales presentes en una molécula. Las bandas que aparecen en un espectro UV-Vis son anchas debido a la superposición de transiciones vibracionales y electrónicas.Imagen relacionada

La espectrometría ultravioleta-visible o espectrofotometría UV-Vis implica la espectroscopia de fotones en la región de radiación ultravioleta-visible. Utiliza la luz en los rangos visible y adyacentes (el ultravioleta (UV) cercano y el infrarrojo (IR) cercano.En esta región del espectro electromagnético, las moléculas se someten a transiciones electrónicas.

Esta técnica es complementaria de la espectrometría de fluorescencia, que trata con transiciones desde el estado excitado al estado basal, mientras que la espectrometría de absorción mide transiciones desde el estado basal al estado excitado.La espectrometría UV/Vis se utiliza habitualmente en la determinación cuantitativa de soluciones de iones metálicos de transición y compuestos orgánicos muy conjugados. (Anónimo, espetrometría.com, s.f.)Resultado de imagen para ? espectroscopia uv vis

Se investiga la distribución de electrones, en especial en moléculas que tienen sistemas de electrones π conjugados.La principal aplicación de la espectroscopia de UV-VIS, la cual depende de transiciones entre niveles de energía electrónica, es para identificar sistemas de electrones p conjugados.

 

¿Cómo se visualiza el registro de la alteración de los electrones?

Imagen relacionada

Imagen relacionada

Compuestos orgánicos

Los compuestos orgánicos, especialmente aquellos con un alto grado de conjugación, también absorben luz en las regiones del espectro electromagnético visible o ultravioleta. Los disolventes para estas determinaciones son a menudo el agua para los compuestos solubles en agua, o el etanol para compuestos orgánicos solubles. Los disolventes orgánicos pueden tener una significativa absorción de UV, por lo que no todos los disolventes son adecuados para su uso en espectrometría UV. El etanol absorbe muy débilmente en la mayoría de longitudes de onda. La polaridad y el pH del disolvente pueden afectar la absorción del espectro de un compuesto orgánico. La tirosina, por ejemplo, aumenta su máximo de absorción y su coeficiente de extinción molar cuando aumenta el pH de 6 a 13, o cuando disminuye la polaridad de los disolventes.

Resultado de imagen para espectros uv vis bandas

La ley de Beer-Lambert establece que la absorbancia de una solución es directamente proporcional a la concentración de la solución. Por tanto, la espectrometría UV/VIS puede usarse para determinar la concentración de una solución. Es necesario saber con qué rapidez cambia la absorbancia con la concentración. Esto puede ser obtenido a partir de referencias (las tablas de coeficientes de extinción molar) o, con más exactitud, determinándolo a partir de una curva de calibración.

Cada sustancia tiene un espectro de absorción característico que dependerá de la configuración electrónica de la molécula, átomo o ión y de los posibles tránsitos electrónicos que se puedan producir con la radiación que incide sobre ella. (Anónimo, ocw.uc3m.es, s.f.)

Resultado de imagen para espectros uv vis bandas

Resultado de imagen para espectros uv vis bandas

Ejemplo:

En la figura 13.37 se muestra el espectro de UV del dieno conjugado cis, trans-1,3-ciclooctadieno, medido en etanol como el disolvente. Como es típico en la mayoría de los espectros de UV, la absorción es bastante ancha y con frecuencia se habla de ella como 13.374.pnguna “banda” en lugar de como un “pico” o “señal”. La longitud de onda en un máximo de absorción se conoce como la lmáx de la banda. Para el 1,3-ciclooctadieno su lmáx es de 230 nm. Además de la lmáx, las bandas de UV-VIS se caracterizan por su absorbancia (A), la cual sirve para medir la radiación que es absorbida cuando pasa a través de la muestra. Para corregir los efectos de la concentración y la longitud de la trayectoria, la absorbancia se convierte en absortividad molar (P) dividiéndola entre la concentración c en moles por litro y la longitud de la trayectoria l en centímetros.

En la figura se ilustra la transición entre estados de energía electrónica responsables de la banda de UV de 230 nm del cis, trans-1,3-ciclooctadieno. La absorción de la radiación oct66.pngUV excita un electrón del orbital molecular más alto ocupado (HOMO) al orbital molecular de más bajo desocupado (LUMO). En alquenos y polienos, tanto el HOMO como el LUMO son orbitales tipo p (en lugar de s); el HOMO es el orbital p de mayor energía y el LUMO es el orbital p* de menor energía. La excitación de uno de los electrones p a partir de un orbital p de enlace a un orbital p* de antienlace se conoce como transición p → p*.

 Resultado de imagen para espectros uv vis bandas

Bibliografía:

 

 

Destacado

¿Qué es el Potencial Hidrógeno (pH)?

POTENCIAL HIDRÓGENOResultado de imagen para escala de pH aplicaciones

El potencial de hidrógeno, pH, es el término que nos indica la concentración de iones hidrógeno en una disolución. Se trata de una medida de la acidez de la disolución. El término se define como el logaritmo de la concentración de iones hidrógeno, H+, cambiado de signo: pH=-log [H+]; donde [H+] es la concentración de iones hidrógeno en moles por litro. Debido a que los iones H+ se asocian con las moléculas de agua para formar iones hidronio, H3O+, el pH también se expresa a menudo en términos de concentración de iones hidronio.

Resultado de imagen para escala de pH

Si representamos esta escala en una recta, la parte izquierda de ésta recta, ubicándose en los valores  del 0 al 6, son valores que indican la acidez (en una toma de pH), la cual aumenta su intensidad, cuanto más se aleja el valor neutro, es decir del número 7, siendo la parte derecha de la recta de valores, la representante de los valores básicos, que van en la escala de la recta en los valores del 8 al 14, o lo que es lo mismo, se dice que, las disoluciones ácidas son aquellas con pH menor de 7, siendo las disoluciones alcalinas, mayores de 7.

Aplicaciones del Potencial Hidrógeno:

Una de las aplicaciones del pH en alimentos es la de funcionar como conservador, es decir, cuando un alimento posee demasiado pH ácido, este se acidifica, la añadidura de ácido acético en forma de vinagre permite la conservación de alimentos; y la producción de ácidos en la fermentación natural permite alargar la vida de los alimentos.

Cuando se realizan demasiados cultivos de diferentes organismos muchas veces es casi imposible identificarlos, aún cuando se emplee un microscopio. Por esta razón en los laboratorios se crean medios cultivos, los cuales son cultivos que han sido modificados cambiando su pH. El cambio del pH en un cultivo provoca que este cambie de color en el proceso de fermentación.

La medición del pH es indispensable para que un cultivo pueda obtener un mejor estudio. Los medidores de pH son potenciómetros los cuales ocupan un electrodo que posee un potencial dependiente de la cantidad de ion H+ presente en el cultivo.

Resultado de imagen para escala de pH aplicaciones

Bibliografía

Calvo, M. (s.f.). Bioquímica de los alimentos. Recuperado el 06 de 07 de 2015, de http://milksci.unizar.es/bioquimica/temas/aditivos/colorartif.html

Peña, A. (2004). Bioquímica. México: Limusa Noriega.

 

 

 

 

Destacado

Hablemos de Drogas! ¿Qué son? (PARTE I)

Los post acerca del tema son muchos verdaderamente, desde los que te ofrecen una cura,Resultado de imagen para heisenberg breaking bad hasta los que juran convertirte en un “cocinero” de cristales al muy puro estilo Walter White. Así que me dije a mi mismo, bueno un post acerca del tema no hace daño, sin embargo la cantidad de información puede ser abrumadora; así que de apoco mis queridos lectores, haré una serie de entradas sobre cada una de las drogas más letales existentes que están hoy por hoy matándonos como sociedad. Así quedan todos invitados a leer mis próximas entradas, mientras veamos el siguiente cortometraje: HOLA PAPÁ

Ahora bien, primero lo primero. ¿QUÉ SON LAS DROGAS?

Según menciona el Dr. Gerardo Armendaris G.; Dr. en Bioquímica y farmacia. Una droga se define como una sustancia química de carácter orgánico que causando o no dependencia, sujetas o no al síndrome de abstinencia, poseen una acción psicotóxica que se manifiesta por una profunda alteración del comportamiento y la conducta del individuo, provocando serios daños en el organismo, especialmente en el sistema nervioso. (2009)

Realicemos un pequeño análisis de aquella definición; esta menciona que debe existir una acción psicotóxica en el individuo, esto no quiere decir que el individuo sea capaz, de identificar esas alteraciones. Por ejemplo: En repetidas ocasiones se ha mencionado que el café se puede considerar como una droga “blanca”; la acción psicotóxica del café, en ciertos individuos es la alteración del sueño, sea en ocasiones para dormir mejor o en otras  para erradicarlo, sin embargo sus efectos no se hacen esperar a largo plazo, sabemos de antemano y esperando no entremos en controversia, los riegos de generar adicción a la cafeína son bajos, lo que el paciente no sabe es que sin notarlo, este pueda generar una cierta dependencia a esta sustancia, estudios han demostrado que ante un corte inesperado al consumo de café a una persona que habitúa esta sustancia, podría tener síntomas como: dolor de cabeza, debilidad, ansiedad, irritabilidad, somnolencia, disminución en la concentración, fatiga y hasta depresión. Si este corte se diera en forma gradual estos efectos no se hacen presentes. Entonces SI! evidentemente existe una notoria relación entre esta sustancia en relación con su sistema nervioso. Y quizàs el paciente no es capaz de notarlo y atribuye dichos comportamientos a efectos producidos como el estrés  o simplemente un mal día es el detonante y justificación perfecta que incluido este autor sea tentado en preparar una buena y confortante taza de café caliente.(Por si deseas profundizar sobre el café y sus efectos.)

Interesante ¿no? buscamos justificarnos incluso hasta para tomarnos una taza de café. Pero qué sucede cuando ya no es café, y nos vemos tentados a justificar heroina… Y es por eso que el tema es caliente! Así que prestemos atención a lo siguiente.

Todo ser humano que se ha vuelto adicto o simplemente ha desarrollado algún Resultado de imagen para clasificacion de las drogasgrado de dependencia a alguna sustancia presenta sintomatología. y es aquí cuando se habla de palabras como adicción. Se define como ADICCIÓN, a un estado de envenenamiento paulatino que se produce por el uso repetido de una droga y se caracteriza por lo siguiente:

  • Hay una necesidad irresistible  de suministrarse droga.
  • Hay tendencia a seguir aumentando la dosis en forma progresiva.
  • Hay dependencia psíquica y física a los efectos de la droga.

Pues bien, la adiccion es una enfermedad dado que como se ha dicho anteriormente es un envenenamiento progresivo, por ende posee y hace que se presenten síntomas, estos son los siguientes:

  • Delirio: caracterizada principalmente por excitacion nerviosa, confusion de la mente, el modo de hablar tiende a ser desordenado, habla solo y aveces sufre alucinaciones. (propio de lo los alucinógenos)

ALUCINÓGENOS: drogas que producen distorsión de la realidad. El drogadicto se transporta aun mundo irreal, hay alteraciones de la vista, del sonido, cree observar colores, sonidos imágenes irreales, esto es subjetivo, por ello puede ver y oír cosas fantasmagóricas y lo llevarán a la desesperación y hasta el suicidio.

  • Dependencia: es un estado que surge de la administración repetida de una droga en forma periódica o continua. Existe dependencia física o psíquica.
  • Depresores: son drogas que,  actuando sobre el sistema nervioso central provoca sueño. Hay abatimiento, tristeza o desesperación.
  • Estimulantes: drogas que producen excitación nerviosa y muscular. Tienen por lo tanto acción contraria a los anteriores.
  • Hipnótico: droga que produce sueño.
  • Narcótico: produce sueño, se semi-conciencia y alivia el dolor.
  • Narcolépsia: deseo irresistible de dormir.
  • Psicosis: es una alteración de la mente,  antiguamente llamada locura.
  • Sedante: droga que calma o disminuye la agitación o excitación y a la vez provoca sueño.

Clasificación de las drogas

Resultado de imagen para hongos alucinogenos
HONGOS ALUCINÓGENOS

Algunas clasificaciones de las drogas se han realizado, tomando en cuenta diferentes aspectos, por ejemplo el núcleo químico de su estructura, su origen, sus efectos tóxicos, etc. Por ejemplo:

Sedantes Hipnóticos: alcohol, barbitúrico, tranquilizantes, cannabis.

Narcóticos: opio y derivados, analgésicos y sintéticos.

Resultado de imagen para OPIO
OPIO

Estimulantes del sistema nervioso central: Nicotina, cafeína, cocaína, antidepresores, metanfetaminas.

Psicodélicas: otros autores clasifican en: narcóticos, depresivos, estimulantes, tranquilizantes, alucinógenos, solventes químicos.

Imagen relacionada

 

Destacado

¿Qué son las Auroras Polares?

Las auroras polares son un fenómeno atmosférico luminoso verdaderamente hermoso, que pueden ser observadas sobre los polos de nuestro planeta Tierra. Cuando las partículas cargadas de las ondas electromagnéticas emitidas por el Sol, en sus explosiones, llegan arrastradas por el viento solar y chocan contra la magnetosfera (Campo electromagnético de la Tierra), como muestra la imagen siguiente, es aquí cuando se libera una cantidad grande de energía en forma de luces de diferentes colores, debido a que las longitudes de onda de estas emisiones va variando dentro del espectro de luz visible.

¿Cómo se producen las auroras?

Fijémonos en la imagen siguiente:

Las partículas procedentes del Sol, que es la estrella mas cercana a nuestro planeta, entran en la atmósfera terrestres sufriendo una desviación debida a la fuerza magnética de la Tierra. Como nuestro planeta tiene dos polos magnéticos, estas partículas se concentran alrededor de los polos Norte y Sur, produciendo el fenómeno luminoso.

Resultado de imagen para campo electromagnetico de la tierra

  • Las Explosiones en la corona solar desprenden gran cantidad de energía en forma de partículas con carga que conforman el viento solar. El viento solar arrastra partículas mas pequeñas que un átomo, cargadas eléctricamente: electrones protones y partículas alfa, actualmente se cree que también se encuentran particulas betas, y gamma. Estas partículas viajan a una velocidad de 450 Km/s y tarda dos días en llegar a la Tierra. AQUÍ UN VIDEO MUY BUENO SOBRE DICHAS PARTÍCULAS: mediatheque.lindau-nobel
  • Algunas partículas se desvian y siguen su viaje hasta chocar contra los campos electromagnéticos de otros planetas del sistema solar, o incluso ser absorbidas por otros cuerpos celestes.
  • La zona de formación de las auroras, está sobre los polos de la Tierra.
  • Las auroras se producen en la ionósfera, donde los átomos pierden sus electrones y se encuentran como partículas con carga, llamadas iones (cationes y aniones), que reaccionan al chocar con las partículas que arrastra el viento solar.
  • El campo Electromagnético de la Tierra o magnetósfera se deforma por acción del viento solar.

LA CIENCIA DETRÁS DE LOS HERMOSOS COLORES DE LAS AURORAS BOREALES

  • Los colores de la aurora dependen de la velocidad del viento solar y de las partículas que intervienen en el choque.
  • Las partículas solares más rápidas en cambio penetran de manera más profunda en nuestra atmósfera. Si el choque se produce con Oxigeno a unos 150 km sobre el nivel del mar las formaciones se verán de color amarillentos en todos sus diferentes tonos.
  • Cuando el viento solar es relativamente lento, los corpúsculos se quedan en las capas superiores de la atmósfera. En este caso, si la colision se produce fundamentalmente con atomos de oxígeno a unos 400 Km de altura o mas la aurora resultante será morada hasta el azul.
  • Las partículas más veloces que penetran hasta los 90 km por encima de nuestras cabezas, producen auroras rojas y azul muy brillantes al chocar fundamentalmente con nitrógeno.

Resultado de imagen para aurora boreal roja

LAS FORMAS DE LAS AURORAS 

Las auroras se muestran de formas diferentes, algunas son inmóviles y otras adquieren movilidad y color. A continuación se enumeran sus formas más conocidas:

  1. DE ARCO UNIFORME: Semejante a un arcoiris, con su borde inferior muy marcado; debajo se ve el cielo oscuro  y el punto más alto está en el meridiano magnético.
  2. DE ARCO RADIADO: Los rayos parecen trasladarse a lo largo del arco y aparecen colores cambiantes: rojos, blancos, rosados violáceos y verdosos.
  3. DE CORONA: El arco iluminado se cierra aveces en forma de círculo muy brillante, con centro en el meridiano magnético.Resultado de imagen para aurora boreal circular
  4. DE BANDAS: En ellas parecen que los arcos se mantuvieran colgados, como si fueran enormes banderas llameando en el cielo.Resultado de imagen para aurora boreal de bandas

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Destacado

¿Sabía Ud. qué sucede cuando las células se equivocan?

Las células reproductoras constan de un número determinado de cromosomas para cada especie, por ejemplo: El ser humano posee 46 cromosomas de los cuales 23 proceden de espermatozoide y los siguientes 23 del óvulo a fecundar. En el siguiente enlace podrás ver detalladamente mas ejemplos de este particular: 60 ejemplos del numero de cromosomas en diferentes especies.

Éste número es siempre par, que se desdobla en el momento de la formación de los gametos, los cuales al unirse para formar el nuevo ser le proporcionarán idéntico número par de cromosomas que los padres. Se han demostrado que algunas enfermedades como el mongolismo y algunas lesiones cerebrales, se deben precisamente a una anomalía de las  células que, al unirse, han formado un número mayor o menor de pares de cromosomas que el característico de  la especie.

PARA MAYOR INFORMACIÓN SOBRE ENFERMEDADES CROMOSÓMICAS: https://www.redclinica.cl/plantilla/especialidades/genetica/enfe_gene/enfermedades-cromosomicas.aspx

 

 

 

 

Destacado

Los frailes y la pólvora

Nos remontamos a la Edad Media, donde la paz probablemente era lujo para los monasterios religiosos, dicho silencio era más que propicio para que sacerdotes se pudieran dedicar a sus estudios favoritos. Curiosamente una de las actividades más atractivas parecia ser la pirotecnia, el uso de la pólvora parecia haberse vuelto su actividad favorita y eso conllevaba cierta peligrosidad, según menciona el Dr. Antonio Pons C. (1995)  ésta peligrosidad no era tan importante como salir a cazar brujas, hechiceros, castigar a los herejes y hacer de la “Santa Inquisición” su modus vivendi.

En medio de este debacle de la humanidad surge un personaje interesante del que se conoce poco, Berthold Schwars, y aunque su apellido parece haber sido sacado un alguna novela de J.L. Rowling, lo  cierto es que era conocido como “El Monje de la Pólvora” y aunque el tema del origen de la pólvora es controversial y nos lleva hasta el continente asiático, para Europa, “el monje de la pólvora” es atribuido como el descubridor de dicho explosivo.

Bueno el tema es que otro monje dominico, San Alberto Magno, es quien menciona las propiedades de un tipo de pólvora elaborada con salitre, azufre y carbón. Anteriormente el fraile inglés Roger Bacon también menciona prescripciones sobre una pólvora ruidosa y altamente explosiva. Sin embargo ninguno de ellos sabía ni pensó en las victorias conseguidas con tal formidable invento. Curioso Verdad?

Tomado de: Pons, A. Historia Natural Ilustrada Sopena. Arañando la corteza terrestre. Ed. Ramón Sopena. S.A. Barcelona. 1995

AQUÍ LES DEJO UN VIDEO POR SI DESEAN DESCUBRIR USTEDES MISMO ¿PORQUE LOS FRAILES AMARON LA PIROTECNIA.

Como hacer PÓLVORA NEGRA casera de alta calidad, sencillo y facil de hacer I IceRocket

Destacado

¿Sabía Ud. qué el Everest podría caber en una fosa marina?

En 1962, el buque oceanográfico ingles Cook, descubrió cerca de las Islas Filipinas una fosa marina de 11.997 metros, llamada Fosa Mariana, actualmente la más profunda de cuantas se conocen. Para hacernos una idea de lo que la cifra representa, pensemos que si sumergiéramos el Everest, el monte más alto del mundo medido desde el nivel del mar, con sus 8848 metros, en esa fosa marina todavía faltaría más de tres kilómetros para que el monte llegue hasta el nivel del mar si su base tocase el fondo.

Destacado

¿Cómo se inventó la fotografía? — EL OJO DEL GATO. Tu rincón de Ciencia.

En el siglo XVIII el científico Italiano Angelo Scala observó que el nitrato de plata se oscurecía con el sol, aparte de ser precursor químico para fabricar los compuestos que se encuentran en las películas fotográficas de haluro de plata. Es también una fuente de plata tiene capacidad de matar a varios gérmenes, en la […]

a través de ¿Cómo se inventó la fotografía? — EL OJO DEL GATO. Tu rincón de Ciencia.

Destacado

¿Sabe usted, qué es la rodopsina?

La Rodopsina, un pigmento de la visión que se encuentra en los ojos y que nos permite ver por la noche, posee un doble enlace que cambia de configuración y se convierte en isómero cis al isómero trans cuando la luz incide en el ojo. Como resultado un  impulso nervioso viaja hacia el cerebro y permite detectar la fuente de luz. El 11-cis-retinal se sitúa unido a una de las hélices alfa en el centro de la molécula y colocado perpendicularmente. Esta colocación hace que cuando llegue luz incida en el 11-cis-retinal y este se transforme produciendo reacciones que llevan a un impulso nervioso.

Conos y bastones de la retina

La rodopsina es una proteína transmembranal que, en humanos, se encuentra en los discos de los bastones de la retina. Consta de una parte proteica, opsina, y una no proteica que es un derivado de la vitamina A que es el 11-cis-retinal. Es inestable y se altera fácilmente con la energía lumínica, se decolora y descompone por exposición a la luz y se regenera con la oscuridad.

 

Una mayoría microorganismos marinos no fotosintéticos captan energía de la luz solar mediante rodopsina. La proteína permite a estos organismos utilizar la energía del sol para moverse, crecer y sobrevivir ante la falta de nutrientes. La rodopsina está altamente conservada y presente en los tres grandes dominios (arqueas, bacterias y eucariotas), lo que sugiere una aparición temprana y un papel fundamental en la evolución.

Destacado

¿Que sabes de la bebidas energizantes? — EL OJO DEL GATO. Tu rincón de Ciencia.

Las bebidas energéticas son bebidas sin alcohol y con virtudes estimulantes que desde hace más de dos décadas salieron al mercado mundial, estas evitan o disminuyen la fatiga y el agotamiento, también aumentan la habilidad mental. Están compuestas principalmente por cafeína, varias vitaminas, carbohidratos y otras sustancias naturales orgánicas como la taurina, que eliminan la sensación de agotamiento de la persona que la está consumiendo. Si […]

a través de ¿Que sabes de la bebidas energizantes? — EL OJO DEL GATO. Tu rincón de Ciencia.

Destacado

Tejido de una Porífera (Esponja marina)

Autores: Alejandro Aguirre, Victor Guevara.

Lugar: Museo-Laboratorio de zoología- UCE

Fecha: Diciembre,2017.

Detalles del organismo: Las esponjas o poríferos (Porifera) son un filo de “animales” invertebrados acuáticos que se encuentran enclavados dentro del subreino Parazoa. Son mayoritariamente marinos, sésiles y carecen de auténticos tejidos. Son filtradores gracias a un desarrollado sistema acuífero de poros, canales y cámaras que genera corrientes de agua provocados por el movimiento de unas células flageladas: los coanocitos. Existen unas 9000 especies de esponjas en el mundo,1​ de las cuales solo unas 150 viven en agua dulce. Se conocen fósiles de esponjas (una hexactinélida) desde el Período Ediacárico (Neoproterozoico o Precámbrico superior).2​ Se consideraron plantas hasta que en 1765 se descubrió la existencia de corrientes internas de agua y fueron reconocidos como animales. Su digestión es intracelular. Las esponjas son hermanas de todos los demás animales. Las esponjas fueron las primeras en ramificarse del árbol evolutivo desde el ancestro común de todos los animales.

Destacado

¿Sabes cuál es la historia detrás de los tallarines Instantáneos?

😉 muy interesante…

EL OJO DEL GATO. Tu rincón de Ciencia.

Encontrar tallarines en la tienda o en cualquier supermercado es muy común hoy en día, pero está realidad era muy difícil de imaginar hace algún tiempo. En 1945 se comienza a utilizar tallarines instantáneos en Japón como una forma de erradicar la hambruna después de la segunda guerra mundial por ser de trigo, económico y fácil de preparar en comparación con el pan y galletas, pero ¿Cómo surgió esta revolución en la industria Alimentaria?

La pasta es considerada el plato más popular del mundo, es preferida antes que la carne, la pizza y el arroz en muchos lugares. Italia es reconocida por la preparación de sus pastas en platos como Fetuccini alla Puttanesca que se prepara en Nápoles y la Trenette al Pesto en Génova por ejemplo, pero la invención de los fideos no es de este país.

img_pasta_a_la_puttanesca_11403_600

Pasta a la puttanesca. Fuente: https://www.recetasgratis.net

El origen se remonta a Grecia…

Ver la entrada original 719 palabras más

Destacado

El Banano, un orgullo más de los ecuatorianos.

BANANO

NOMBRE COMÚN: plátano, guineo, banana, banano. (coméntanos como lo dicen en tu país)

TIPO: Fruta

GÉNERO: Musa

FAMILIA: Musaceae

CICLO VEGETATIVO: entre 14 a 16 meses.

VIDA ECONÓMICA:  de 1 a 2 cosechas.

TIEMPO DE COSECHA: se inicia alrededor de los 18 meses después de la siembra, con cosechas posteriores cada cuatro, dependiendo del manejo del cultivo y su ubicación respecto al nivel del mar.

HISTORIA

El banano es el mayor producto agrícola de explotación del Ecuador y una de las más

Monumento al Bananero. Machala-Ecuador

importantes fuentes de ingresos del país.  A nivel mundial el Ecuador es el principal productor y exportador de la fruta. Precisamente la capital de la provincia de El Oro, Machala, es considerada la capital Bananera del Mundo.

 

El banano, es posiblemente, la planta cultivada más antigua en el mundo. Hace más de 3000 años ya se la mencionaba en escritos chinos como uno de los primeros alimentos del hombre primitivo.  Los antiguos lo llamaban “fruta de los hombres sabios” (musa sapiens), dada sus cualidades nutricionales superiores.

Resultado de imagen para banana africa
Zonas de producción bananera en África.

En el siglo VII es llevado a África Occidental por los mercaderes árabes, donde habría de , recibir su nombre definitivo formada por las contracciones de palabras del continente negro, como son Bana, gbana, abana, funana y bunane.

 

Luego de África occidental iría a las islas Canarias, llevado por explotadores y sacerdotes portugueses y españoles de la época. Con el descubrimiento y colonización de América, en 1516, Fray Tomás de Berlanga, descubridor de las Islas Galápagos, trajo éstas plantas a república Dominicana y de allí se dispersan al continente, incluyendo el Ecuador de hoy.

DATOS NUMÉRICOS

  • Ecuador registra una medida ponderada de 33.48 toneladas métricas por hectárea año, equivalentes a 1716 cajas de tipo 22XU.
  • El racimo de banano puede pesar entre 5 a 8 Kg.
  • Los suelos arcillosos en un 40% no son recomendables para su siembra.
  • Un racimo puede llegar a tener hasta 11 manos en promedio.
  • La actividad bananera contribuye con el 24 % de PIB agrícola en Ecuador.
  • Dependiendo del grado de tecnificación, se utiliza entre un y tres trabajadores directos por hectárea al tiempo que se generan entre 1.5 a 10 empleos indirectos por hectárea.

DESTINOS DE EXPORTACIÓN

Compradores permanentes:

  • Por más de 30 años: Checoslovaquia, Irlanda, Rusia, Yugoslavia, Arabia, Finlandia y Hungría.
  • Por más de 50 años: Bélgica, Chile, Estados Unidos, Japón,  Alemania, Argentina, Holanda, Italia y Nueva Zelanda.
  • Los recién llegados: Portugal, Polonia, Grecia, Libia, China y Turquía.

Otros datos:

  • Del total de banano producido nacionalmente se conoce que: el 3.05 % es utilizado para consumo animal; 3.51% consumo humano interno; 3.88% para la industria; 10.45% es desperdiciado; 79.11% ventas el exterior.

VALORES REFERENCIALES PARA 2017

Resultado de imagen para precio de caja de banano 2017

ZONAS DE MAYOR PRODUCCIÓN 

VALOR NUTRICIONAL 

Destacado

Monascus purpureus

Monascus purpureus.
Monascus purpureus. a 60x

Autor: Alejandro Aguirre

Lugar donde se tomo la fotografía: Unidad de Biología. UCE.

Fecha: 2015

Características y descripciones: Monascus purpureus la levadura del arroz rojo chino. Aunque en realidad no es una levadura, es un moho pariente de los Aspergillus. Este microorganismo es responsable de la coloración rojo púrpura característica del arroz rojo, cereal que se utiliza para colorear diversos platos chinos y orientales. Desde hacía tiemoo se le atribuían propiedades saludables, y ahora la EFSA parece haberlo reconocido. En la lista podemos leer que La monacolina K del arroz de levadura roja contribuye a mantener niveles normales de colesterol sanguíneo siempre que se tomen 10 mg diarios de dicho compuesto producido por la levadura. 

Utilidad e importancia: Este hongo es más importante debido a su uso, en forma de arroz de levadura roja , en la producción de ciertos alimentos fermentados en China. Sin embargo, los descubrimientos de las estatinas que reducen el colesterol producidas por el moho han llevado a investigar sus posibles usos médicos. Produce una cantidad de estatinas. Las lovastatinas y análogos naturales se denominan monacolinas K, L, J, y también se presentan en sus formas de ácido hidroxílico junto con dehidroxicacolina y compactina ( mevastatina ). El medicamento de prescripción lovastatina , idéntico a la monacolina K, es la principal estatina producida por M. purpureus . Solo la forma de anillo abierto (hidroxiácido) es farmacológicamente activa.

Destacado

Echinococcus granulosus

25198773_1588147007895865_1745859084_o

Autor: Marcela Utreras Vinueza. Estudiante de Bioquímica Clínica.

Lugar donde se tomo la fotografía: Laboratorio de Parasitología. FCQ. UCE.

Ciclo biológico: El reservorio son los perros (Hospedador definitivo), lobos, dingo, oveja, caballo y cerdo. El vehículo de transmisión es el contacto con la tierra heces, perro (saliva, pelo, heces) y moscas. Los seres humanos (hospedador intermedario)se infectan cuando ingieren los huevos en alimentos que han sido contaminados. Los huevos eliminados por las heces pueden sobrevivir varios meses en la tierra. Son ingeridos por el huésped, liberan los embriones infectantes (oncosferas) que atraviesan la mucosa y se diseminan por la sangre hasta los diferentes órganos (hígado, pulmón). Los cánidos se infectan por la ingesta de vísceras de animales infectados. No se transmite de persona a persona. El llamado quiste hidatídico es la larva hidátide con la correspondiente envuelta quística elaborada por el hospedador.

Fuente: Viajarseguro.org

Datos y cifras

  • La equinococosis humana es una enfermedad parasitaria provocada por cestodos del género Echinococcus.
  • Las dos formas más importantes de la enfermedad en el ser humano son la equinococosis quística (hidatidosis) y la equinococosis alveolar.
  • El ser humano se infecta por la ingestión de huevos de parásitos presentes en alimentos, agua o suelo contaminados, o por contacto directo con animales huéspedes.
  • El tratamiento de la equinococosis a menudo resulta caro y complicado, y puede que requiera cirugía y/o tratamiento farmacológico prolongado.
  • Los programas de prevención se centran en el tratamiento vermífugo de perros y ovejas, que son los huéspedes definitivos. En el caso de la equinococosis quística, las medidas de control también incluyen la mejora de la inspección de los alimentos, la higiene de los mataderos y las campañas de educación de la población. En la actualidad se está evaluando la vacunación del ganado ovino como intervención adicional.
  • En cualquier momento dado, hay más de 1 millón de personas afectadas por equinococosis.
  • La OMS está trabajando para validar estrategias eficaces de control de la equinococosis quística para 2020.

La equinococosis humana es una enfermedad zoonótica (enfermedad transmitida al ser humano por los animales) provocada por parásitos, a saber, los cestodos del género Echinococcus. La equinococosis se presenta en cuatro formas:

  • equinococosis quística, también conocida como hidatidosis, provocada por la infección por Echinococcus granulosus;
  • equinococosis alveolar, provocada por la infección por E. multilocularis;
  • equinococosis poliquística, provocada por la infección por E. vogeli;
  • equinococosis uniquística, provocada por la infección por E. oligarthrus.

Las dos formas más importantes, que tienen trascendencia médica y de salud pública para el ser humano, son la equinococosis quística y la equinococosis alveolar.

Transmisión

Varios animales herbívoros y omnívoros son huéspedes intermediarios de Echinococcus. Se infectan al ingerir huevos del parásito presentes en alimentos y aguas contaminadas, y después el parásito evoluciona hacia las fases larvarias en las vísceras.

Los carnívoros actúan como huéspedes finales del parásito, y albergan las tenias maduras en sus intestinos. Se infectan mediante el consumo de vísceras de huéspedes intermediarios que contienen el parásito.

Los humanos actúan como huéspedes intermediarios accidentales, así llamados porque adquieren la enfermedad del mismo modo que otros huéspedes intermediarios, aunque no participan en su transmisión a los huéspedes definitivos.

Hay varios genotipos distintos de E. granulosus, algunos con diferentes preferencias por huéspedes intermedios. Algunos genotipos se consideran especies distintas de E. granulosus. No todos los genotipos causan infección en el ser humano. El genotipo causante de la gran mayoría de los casos humanos de equinococosis quística se mantiene principalmente en un ciclo perro-oveja-perro, aunque también pueden verse implicados otros animales domésticos, como la cabra, el cerdo, la vaca, el camello o el yak.

La equinococosis alveolar se registra generalmente en un ciclo de vida silvestre entre zorros y otros carnívoros y pequeños mamíferos (principalmente roedores). También se pueden infectar los perros y gatos domésticos.

Fuente: OMS

Destacado

Isómeros cis y trans del K[Cr(C2O4)2(H2O)2].3H2O

Autor: Alejandro Aguirre

Lugar donde se tomo la fotografía: Unidad de Química. UCE.

Fecha: 2017

Descripción: IZQUIERDA: isómero del K[Cr(C2O4)2(H2O)2].3H2O en fase Trans, cristales brillantes rozados simétricos. visto a 60 x. en microscopio binocular. DERECHA: isómero del K[Cr(C2O4)2(H2O)2].3H2O en fase cis. cristales negros no simétricos, se puede apreciar rachas de trans debido a que ambos pueden formarse en el proceso de obtención y coexisten en la naturaleza. Visto a 60 x. en microscopio binocular.  Fines cualitativos.

Destacado

Escherychia Coli (cultivo)

Escherichia Coli
Cultivo de Escherychia Coli y diferentes tipos de cocos.

Autor: Alejandro Aguirre

Lugar donde se tomo la fotografía: Unidad de Biología. UCE.

Fecha: 2015

Descripción:  cultivo simple de Escherychia coli en agar violeta con presencia de diferentes tipos de cocos, finalidad cualitativa. Escherichia coli (E. coli) es una bacteria que se encuentra normalmente en el intestino del ser humano y de los animales de sangre caliente. La mayoría de las cepas de E. coli son inofensivas. Sin embargo algunas de ellas, como E. coliproductora de toxina Shiga, pueden causar graves enfermedades a través de los alimentos. La bacteria se transmite al hombre principalmente por el consumo de alimentos contaminados, como productos de carne picada cruda o poco cocida, leche cruda, y hortalizas y semillas germinadas crudas contaminadas.

Datos y cifras

  • Escherichia coli (E. coli) es una bacteria presente frecuentemente en el intestino distal de los organismos de sangre caliente. La mayoría de las cepas de E. colison inocuas, pero algunas pueden causar graves intoxicaciones alimentarias.
  • E. coli productora de toxina Shiga es una bacteria que puede causar graves enfermedades a través de los alimentos.
  • El origen principal de los brotes de E. coli productora de toxina Shiga son los productos de carne picada cruda o poco cocinada, la leche cruda y las hortalizas contaminadas por materia fecal.
  • Aunque en la mayoría de los casos remite espontáneamente, la enfermedad puede llegar a poner en peligro la vida, por ejemplo cuando da lugar al síndrome hemolítico urémico, especialmente en niños pequeños y ancianos.
  • E. coli productora de toxina Shiga es termosensible. Al preparar los alimentos en el hogar, hay que seguir las prácticas básicas de higiene de los alimentos, entre ellas la de cocerlos bien.
  • La aplicación de las Cinco claves para la inocuidad de los alimentos de la OMS es una medida fundamental para prevenir las infecciones por agentes patógenos transmitidos por los alimentos, como E. coli productora de toxina Shiga.

Fuente: OMS

Destacado

DMG (DIMETILGLICINA)

DMG
DMG, Dimetilglicina 60x. Microscopio binocular

Autor: Alejandro Aguirre

Lugar donde se tomo la fotografía: Lab. Microbiologia General. Fac. Ciencias Químicas. UCE.

Fecha: 2016

Descripción: Cristales Rojos en forma de agujas delgadas observadas a 60x. La DMG es una substancia más bien dulzona, que fue descrita en un artículo reciente en la Revista Journal of Laboratory and Clinical medicine (1990, 481-86) como “un compuesto natural simple, sin efectos nocivos conocidos” Una sustancia natural que se encuentra en ciertos alimentos como carne (hígado), frijoles, semillas y granos, DMG es un intermediariometabolito, lo que significa que se descompone rápidamente en otras sustancias útiles que su cuerpo necesita. DMG, que afecta muchas rutas metabólicas dentro de la célula, también se produce en pequeñas cantidades por humanos y animales. Oficialmente llamado N, N-Dimetilglicina, DMG está relacionado con el aminoácido, glicina, cuyos dos átomos de hidrógeno han sido reemplazados por grupos metilo (CH3) en su átomo de nitrógeno. La investigación muestra que es fisiológicamente activo e importante para el metabolismo celular, así como un proveedor de grupos metilo esenciales para modificar, construir y desintoxicar muchos componentes en el cuerpo.

 

Destacado

¿Sabía Ud. Qué… los radicales libres contribuyen al envejecimiento?

Los radicales libres pueden jugar un papel importante en las enfermedades y el aceleramiento del envejecimiento. pero ¿Qué son los radicales libres? Pues bien se denomina como radical o radical libre a una especie química, átomo propiamente dicha con electrones desapareados y su nombre se debe a que al electrón libre  o impar se le denomina electrón radical o electrón impar. En resumidas palabras un radical es una especie carente de electrones, porque no alcanza el octeto.

¿De qué manera se relacionan estos radicales libres con el envejecimiento?

Resultado de imagen para radicales libresEn el transcurso de la vida diaria, las especies de oxigeno reactivo que se encuentran en el medio ambiente y que se producen en el interior del cuerpo humano en el proceso de respiración (intercambio gaseoso); estas especie se descomponen, dando lugar a radicales hidroxilo de vida corta. El problema radica en que el R. Hidróxilo durante su corta estancia en el interior del ser humano puede reaccionar con diversas proteínas e incluso con el mismo ADN celular. El daño que producen es acumulativo y puede dar lugar a enfermedades cardíacas, cáncer y envejecimiento prematuro.


 

Destacado

¿SABÍA UD. QUÉ SON LOS VOC’s?

Los compuestos orgánicos volátiles, a veces llamados VOC (por sus siglas en inglés), o COV (por sus siglas en español), se convierten fácilmente en vapores o gases. Junto con el carbono, contienen elementos como hidrógeno, oxígeno, flúor, cloro, bromo, azufre o nitrógeno.

La combustión incompleta de la gasolina y otros combustibles (Fósiles), de los motores de explosión, libera cantidades significativas de compuestos orgánicos volátiles (VOC, Volatile Organic Compounds) a la atmósfera. Los VOC estan formados por cadenas de alcanos cortas, alquenos, compuestos aromáticos y otros hidrocarburos. Los VOC son contribuyentes importantes a la contaminación del aire y originan enfermedades cardíacas y respiratorias.

Algunos ejemplos de compuestos orgánicos volátiles son:
Naturales: isopreno, pineno y limoneno
Artificiales: benceno, tolueno, nitrobenceno
Otros ejemplos son el formaldehído, clorobenceno, disolventes como tolueno, xileno, acetona, y tetracloroetileno (o percloroetileno), el principal disolvente usado en la industria de lavado en seco.
Muchos compuestos orgánicos volátiles se usan comúnmente en disolventes de pintura y de laca, repelentes de polillas, aromatizantes del aire, materiales empleados en maderas, sustancias en aerosol, disolventes de grasa, productos de uso automotor y disolventes para la industria de lavado en seco.

Destacado

¿SABÍA UD. QUÉ… existen vitaminas que en sobre dosis podrían matarlo?

La mayoría de vitaminas tienen grupos cargados, esta característica hace que sean en solubles en agua.  Como por ejemplo la vitamina C que normalmente es consumida como solucion. Sin embargo y como consecuencia de dicha solubilidad en agua, se eliminan rápidamente y generalmente no son tóxicas. Sin embargo y al hablar de la vitamina A y D químicamente son moléculas NO polares y son almacenadas en el tejido adiposo (graso) que como sabemos, también es un no polar, por lo tanto, estas dos vitaminas son o podrian ser potencialmente tóxicas en grandes dosis.

All-trans-Retinol2.svg
RETINOL (VITAMINA A)

Destacado

¿Sabía ud. Qué… Los estereoisómeros tienen propiedades terapéuticas diferentes?

Los estereoisómeros en la química orgánica son isómeros que se diferencian en la orientación de sus átomos en el espacio; manteniendo el mismo orden en el que sus átomos se enlazan. Por isómeros se entiende que son compuestos diferentes, sin embargo poseen la misma formula molecular. Normalmente se los diferencia, según la posición que tengan, como Cis (mismas direcciones de sus enlaces de referencia) o Trans (direcciones opuestas de sus enlaces referencia). Esto es muy importante porque difieren entre si sus propiedades físicas y químicas.

La Quinina y la Quinidina son un ejemplo muy claro sobre estereoisómeros.

Ambas comparten la misma fórmula química: C20H24N2O2 

Por lo tanto comparten la misma masa molecular: 324.42 g/mol

Estas dos características nos conllevarían a pensar que son el mismo compuesto sin embargo son totalmente diferentes, veamos:

Reconozcamos sus estructuras:

275
QUIDININA
Quinine structure.svg
QUININA

 

 

 

 

 

 

 

Como podemos notar existe una notoria diferencia en la diseccionan de sus enlaces que conectan el grupo OH- así como el que une al heteroátomo (N). por lo tanto habrá que suponer que sus propiedades terapéuticas no serán las mismas:

QUININA: esta sustancia se obtiene aislando la corteza del árbol de la quina (Cinchona Officinalis)  es un alcaloide natural, blanco y cristalino, es un alcaloide natural, blanco y cristalino, con propiedades antipiréticas, antipalúdicas y analgésicas. Utilizado para el tratamiento de la malaria y malaria resistente. También se intentó utilizar para tratar pacientes infectados con priones, pero con un éxito limitado.  Es un compuesto empleado frecuentemente en la adulteración de la heroína.

Sustitutos:  quinacrina, cloroquina y primaquina.

QUINIDINA: (2-etenil-4-azabiciclo[2.2.2]oct-5-il)- (6-metoxiquinolin-4-il)-metanol) es un medicamento que actúa a nivel del corazón como agente antiarrítmico clase I y, químicamente, es un estereoisómero de la quinina. Se indica en el tratamiento de la frecuencia cardíaca anormal y otros trastornos del ritmo cardíaco, haciendo que el corazón sea más resistente a la actividad eléctrica anormal.

Destacado

Bacterias Metanótrofas, una solución para el calentamiento global.

Methylococcaceae

Las Bacterias metanótrofas crecen utilizando metano como su única fuente de metano. Podrían ser utilizadas por su capacidad de producir varias sustancias químicas como el metanol. a partir del metano o reducir los niveles de metano en la atmósfera. Se cree que los altos niveles de metano contribuyen con el calentamiento global de la atmósfera.

 

Por lo tanto su papel ecológico es crucial porque de forma general pueden degradar moléculas de compuestos orgánicos que contengan un átomo de carbono como lo es evidentemente el metano (CH4), el carbono que obtiene de estas moléculas le permiten generar energía y sustancias necesarias para subsistir. Se conoce que el gas metano es la principal sustancia que se produce como producto de la descomposición de la materia orgánica, en la mayoría de los ambientes anaeróbicos. Dichas sustancias producto de la sintesis del metano en este tipo de bacterias son: biomasa (células) y dióxido de carbono (CO2). Es así que la existencia de estas bacterias es muy importante para controlar la cantidad de gas metano en la atmósfera, que aumentan en un 1% anualmente y que a su vez es un potente precursor del efecto invernadero. El aspecto positivo es que estas bacterias existen tanto en ecosistemas acuáticos como terrestres, algunas de sus características mas relevantes son:

-Utilizan como donadores de electrones compuestos de un átomo de carbono.

-Su fuente de carbono son compuestos C1, como el metano.

-Habitan en zonas anoxigénicas principalmente

-Algunas bacterias metanótrofas viven en simbiosis con bacterias sulfatorreductoras en los tapetes microbianos que crecen como chimeneas y se forman alrededor de salidas de metano en  el fondo del mar.

Comprender más sobre estos seres, nos permite comprender mas a la sabia naturaleza, son una herramienta muy útil para campos como la biorremediación dentro de la biotecnología. La biotecnología utiliza organismos vivos para hacer o modificar productos, mejorar plantas o animales o desarrollar microorganismos para usos específicos. La biodegradación ocurre en la naturaleza, y la actuación humana transformo esos procesos naturales en biotecnologías para acelerar la tendencia natural.

Puedes leer un poco más sobre biorremediación mediante uso de bacterias en el siguiente blog: .http://equilibriodelciclodelcarbono.blogspot.com/2016/11/bacterias-metanotrofas-pseudomonas-y.html

Benzopireno un asesino silencioso

EL OJO DEL GATO. Tu rincón de Ciencia.

BENZOPIRENO

Los benzopirenos son hidrocarburos aromáticos policíclicos (HAPs), un grupo de compuestos químicos que se forman por la combustión incompleta de materia orgánica (carbón, petróleo y gasolina, basuras, tabaco y alimentos como carne y pescado). Cuando una grasa se somete a un calentamiento excesivo (por encima de los 300ºC), se forman dichos compuestos tóxicos, de manera que su presencia es directamente proporcional a la temperatura y al tiempo de cocinado. Si la temperatura es inferior, por ejemplo, 200º C, pero el tiempo de exposición es elevado, más de 30 minutos o una hora, también pueden formarse los benzopirenos y resto de HAPs.

Benzo-a-pyrene.svg Imagen 1. Estructura del Benzopireno

Efectos en la salud

Su efecto más claro en el hombre es el cáncer de pulmón, al que llega a través del aire, o al fumar. La relación entre los benzopirenos y tumor pulmonar fue demostrada en Estados Unidos por investigadores del Centro de…

Ver la entrada original 308 palabras más

Rayos X – Experimento de Roentgen

EL OJO DEL GATO. Tu rincón de Ciencia.

Experimento de Roentgen en la universidad de Wurtzburg

Wilhelm Conrad Röntgen fue uno de los físicos más importantes del siglo XIX. Su nombre, sin embargo, está principalmente asociado con su descubrimiento de los Rayos X.

roentgen_rayos_x-1 Imagen 1. Wilhelm Röntgen

En 1895 Wilhelm estaba estudiando en su laboratorio de la Universidad de Wurzburg los fenómenos que acompañan el pasaje de una corriente eléctrica a través de un gas a muy baja presión. Debido al trabajo de anteriores científicos las propiedades de los rayos catódicos se habían hecho conocidas y se habían revelado nuevos e interesantes fenómenos de descargas eléctricas en el vacío. Por este motivo Roentgen sugirió la probabilidad de que existieran problemas sin resolver  derivados de estas investigaciones. Repitiendo los experimentos de Hertz y Lenard con los rayos catódicos, utilizó los aparatos que comprendían el tubo de Lenard, la pantalla fluorescente y la placa fotográfica.

a-descoberta-dos-raiosx-na-perspectiva-da-teoria-de-kuhn-18-638 Imagen 2. Tubo de Lenard

Röntgen cubrió…

Ver la entrada original 678 palabras más

con CIENCIA te

La actualidad científica en un click

Moral y Deseo

sentimientos, instintos, deseo y moral

Emisora Vertientina

..:::Tu amiga más cercana:::..

Panorama Agrario

El Portal de la agricultura en México

LAB Comunicación UFV

Doing. Storytelling. Innovation.

El Rincón Biotec

Divulgación de la biotecnología y la biología molecular. ¡Que la ciencia te acompañe!

Un poco de ciencia y buena vibra

Ciencia - Naturaleza - Agricultura Urbana - BioVenezuela

La inteligencia artificial: el mañana

Un blog sobre inteligencia artificial: orígenes, aplicaciones, avances...

Síntesis de la Ciudad

Noticias eelevantes de la ciudad y la región

La Neurona Errant

A neuroscientist point of view

Chemistry with JD

Un enfoque interdisciplinar sobre el impacto de la Química en la sociedad.

Manolo Cuadros

Blog personal enfocado al emprendimiento

La Isla Oeste

Mirando a tu region

Plumas Atómicas

Armas de discusión masiva

Átomo

LO IMPOSIBLE ES UNA CADENA DE POSIBLES QUE AÚN NO HA COMENZADO

Radio Esmeralda de Cuba

Con el sabor de la caña de azúcar y el encanto del mar

La Biotecnología y yo.

Mi experiencia sobre estudiar la ingeniera en biotecnología

Itusers.today

Periódico y Revista de Alta Tecnología IT/USERS®

Humanoide Futurista

El futuro nos ha alcanzado

Actualidad Médica

Investigación científica experimetal. Fácticas

P o r l a R a z ó n & l a C i e n c i a

Escepticismo crítico y divulgación de la ciencia.

In vitro man

¡Biología, biotecnología, opinión y mucho más!

FARMAFIA-blog

Análisis de las prácticas de las multinacionales farmacéuticas y su repercusión en los más débiles.- "TODOS SOMOS RESPONSABLES DE TODOS"

aproximacionalfuturo.wordpress.com/

Informativo digital del periodista Sergio Peña Herrera sobre tecnologias, negocios y ciencias

Mai Murialdo

Mi viaje

Die Mikrobiologen

Blog creado por los estudiantes de microbiología de la UNT para compartir artículos y trabajos de investigación científica

Sanidad, Inocuidad y Calidad de Alimentos

Informacion Técnica de Sanidad e inocuidad de Alimentos

DCC UAEM

Dirección de Publicaciones Científicas y Divulgación del Conocimiento. Universidad Autónoma del Estado de Morelos.

LÍRICA PULSÁTIL

- Supervivencia poética-

Explorer BioGen

Para los curiosos de la diversidad infinita

Microbiología

Prácticas de Microbiología de una futura Técnico de Laboratorio Clínico y Biomédico.

Bluffy´s Airport

Un rincón dedicado al modelismo de aviación

Microbiología Aplicada

La utilización de los microorganismos para fines específicos.

LAB CLUB

Science to the people

Cuaderno práctico de Microbiología

Este es el repositorio de prácticas de un alumno del módulo de microbiología clínica de 2ºLCB

Microbiología clínica

Prácticas de Microbiología de un futuro Técnico de Laboratorio Clínico y Biomédico.