SoftwareTutoriales

Álgebra de Boole y Shannon: Guía rápida

El Álgebra de Boole y Shannon es fundamental para todo lo que tiene que ver con la computación, ya que representa las bases de todo, así como de la electrónica digital que mueve el mundo actual. Por eso, deberías conocer más acerca de ello, y por eso hemos creado este tutorial completo donde conocer los aspectos más elementales.

Introducción

George Boole

Se puede denominar álgebra de Boole o álgebra booleana. También se conoce con el nombre de retículas booleanas e incluso lógica o álgebra binaria. Tú puedes llamarla como te apetezca, pero lo importante es conocerla.

George Boole fue un filósofo, matemático y lógico británico de mediados del siglo XIX. Nació en Lincoln (1815) y murió en Cork (1864). A sus 32 años (1847) desarrolló una teoría matemática vanguardista que publicó en su obra “El análisis matemático del pensamiento”. Con ello se ganó una cátedra en el Queen´s College de Dublín. Sus dos obras más importantes fueron “Mathematical Analyses of Logic” (1947) e “Investigation of the Law of Thought” (1854).
Boole concibe el espacio como algo biestable, es decir, que tiene dos estados opuestos el uno del otro (bien-mal, día-noche, verdadero-falso, 0-1, corte-saturación, apagado-encendido…).

Con su pensamiento lógico hoy día podemos implementar circuitos lógicos y comprender su funcionamiento. Pero él ni se imaginaba lo que acarrearía en un futuro sus brillantes estudios, fue otro el que le dio el uso que le damos en la actualidad a la lógica booleana.

Claude Elwood Shannon fue un matemático e ingeniero electrónico estadounidense nacido en Gaylord (Michigan, 30 de abril de 1916). Estudió sus dos carreras en la Universidad de Michigan. 1938 fue el año en el que publicó un importante artículo denominado “A Symbolic Analysis of Relay and Switching Circuits”. En 1940 se doctoró en el MIT (Massachusetts Institute of Technology) y fue aquí donde comenzó sus investigaciones.

Él basándose en el álgebra de Boole, en la teoría de circuitos y la computación de datos en máquinas electrónicas, desarrolló la teoría matemática de la comunicación (“A mathematical Theory of Communication”, 1948). Dicha teoría se conoce actualmente como teoría de la información. Claude trabajaba en la AT&T y fue él quien acuñó por primera vez el termino bit en su obra.

Agrupando el pensamiento de estos dos genios da como resultado el nacimiento de la lógica digital. Incluso actualmente se siguen apoyando en las teorías de Shannon para desarrollar la Teoría de Autómatas.

Definición

tabla 1

Existen una serie de reglas o axiomas de la lógica binaria que debemos conocer. Ellos nos ayudarán a simplificar y trabajar con funciones para diseñar circuitos digitales. Yo los he englobado en postulados, teoremas y leyes de Morgan (aunque estas pertenecen a los teoremas).

A veces también podemos oír hablar de un álgebra de Boole bivalente o de conmutación. Se denomina así a las operaciones de suma lógica, producto lógico y complemento lógico.

Axiomas o postulados de Huntington

Los postulados son hipótesis iniciales para definir la lógica booleana. Sobre estos postulados se asentarán las propiedades y teoremas. Antes de comenzar con los postulados hay que recordar la propiedad interna, es decir, el resultado obtenido de una operación entre dos variables booleanas es otra variable booleana.

postuladosEstos son los postulados más importantes, como podrás comprobar, y representan una parte importante del álgebra booleana.

Teoremas

Los teoremas y leyes que veremos en este apartado se deducen a partir de los postulados anteriores.

teoremas

Este último teorema hablaremos más sobre él en el apartado siguiente. Las leyes de Morgan son muy importantes para el diseño de circuitos y por ello las trataremos con más detenimiento.

Por cierto, cuando veamos una variable o variables con una línea horizontal por encima quiere decir que está/n negada/s. Esto quiere decir que tomarán el valor inverso al original, es decir, 0 si son 1 o 1 si son 0. En caso de los operadores también se ven afectados como veremos más adelante.

Como ampliación de los teoremas vamos a dar unas reglas o propiedades muy interesantes. Nos serán de gran ayuda en la simplificación de nuestras funciones cuando los demás teoremas no se puedan aplicar o los métodos gráficos no se puedan aplicar:

(a· b) + (a·b) = a
(a· b) + (a · b) = b
a · b + a · b · c = a · b + a · c
a·b·c·d + a·b·c·d + a·b·c·d = a·c (b+c)

Leyes de Morgan

De Morgan

Estas leyes fueron creadas por Augustus De Morgan (1806-1871). Aunque era de origen inglés, Morgan nació en la India. Fue profesor de matemáticas y lógica en el Colegio Universitario de Londres y como dato anecdótico decir que fue tutor de la famosa Ada Byron (Condesa de Lovelace).

Aquí tenemos estos dos ejemplos de funciones:

En palabras simples, la inversa o negada de una suma lógica, de dos o más variables, equivale al producto lógico de la negada de dichas variables.

La negada o inversa de un producto lógico, de dos o más variables, equivale a la suma lógica de dichas variables negadas.

¿Cómo podemos aplicar esto? Pues bien, si negamos una función  podremos cambiar las funciones de suma de productos  a productos de suma y al revés. Incluso si negamos dos veces (si negamos dos veces se queda igual que está a=a̿), esto lo podemos aplicar para implementar solo puertas NAND o NOR.

Esto es lo que se conoce como homogeneidad entre puertas lógicas universales. De hecho, el adjetivo “universal” se debe a que con ellas pueden representarse todas las funciones o lo que es lo mismo, el resto de puertas lógicas.

Un ejemplo de función, a la que aplicaremos las leyes de Morgan para transformarla, puede ser la siguiente:

Biografías

Sobre Claude Shannon

Shannon

Antes hablábamos de Shannon, pues bien, aparte de desarrollar el teorema de expansión de Shannon, que dice que toda función de n variables puede expresarse en forma de producto de sumas, él también aplicó los teoremas lógicos de Boole a los interruptores electrónicos (relés, conmutadores, …).

Las teorías e ideas del profesor Claude Elwood Shannons sobre la información, cuyas aplicaciones son, como es lógico, geniales en las tecnologías de la comunicación, también tuvieron gran repercusión en una amplia gama de ciencias cuantitativas, como la informática, la lingüística, la biología y la psicología. Los conceptos que el prof. Shannon, en particular los conceptos de entropía de la información, son fundamentales para la teoría de la información, y los teoremas de codificación de Shannon siguen siendo los resultados más importantes en este ámbito. Al abrir un nuevo campo matemático con aplicaciones a la ingeniería, el trabajo de Claude Elwood Shannon sólo es comparable con el de Norbert Wiener sobre la teoría de las series temporales, y con el de von Neumann y Morgenstern sobre la teoría de los juegos. Los trabajos de Claude Shannon en el ámbito de los sistemas de información tienen importantes implicaciones para toda la teoría de las comunicaciones y han sido muy valiosos para el desarrollo de los ordenadores.

El trabajo de Shannon sobre la encriptación está aún más estrechamente relacionado con sus posteriores publicaciones sobre la teoría de la comunicación. El trabajo más importante de Claude Elwood Shannon fue la teoría matemática Analogy of Communication, publicada en dos partes en la revista técnica de Bell Systems durante 1947-48. En 1948, el matemático estadounidense publicó A Mathematical Theory of Communication, , introduciendo por primera vez el término bits como unidad básica de información. El artículo de 1948 del profesor Claude Elwood Shannon, titulado A Mathematical Theory of Communication, dio lugar a una nueva rama de las matemáticas denominada Teoría de la Información.

Probablemente ninguna obra de este siglo ha cambiado más profundamente la forma en que los seres humanos entienden las comunicaciones que el artículo de Claude E. Shannon, A Mathematical Theory of Communication, publicado por primera vez en 1948. La formulación de Shannon de la teoría de la información tuvo un éxito inmediato entre los ingenieros de comunicaciones, y sigue siendo útil.

El tema en cuestión es el de las comunicaciones en general, y al aplicar las matemáticas a la cuestión, Claude Shannon, siguiendo a H. Nyquist y R. W. L. Hartley, sentó las bases de la teoría de la información. Como parte de esa teoría, Shannon también consideró los problemas de distorsión, redundancia y ruido de la información, proporcionando así los medios para medir la información. En un documento fundamental de los laboratorios Bell de 1948, Shannon definió, en términos matemáticos, qué es la información y cómo ésta puede transmitirse a través del ruido.

Para responder a la segunda pregunta, Claude Shannon demostró que se puede transmitir esa información digitalizada a través de canales de comunicación que tienen algo de ruido, utilizando la teoría de la probabilidad para cuantificar cuánto ruido hay, y luego utilizando la redundancia para eliminarlo. Al definir la información, Shannon analiza la capacidad de enviar información a través de los canales de comunicación.

En A Mathematical Theory of Communication, el primer uso del término bit, Clemens demostró que añadir bits adicionales a la señal permitía corregir los errores durante la transmisión. La idea de que se podían enviar imágenes, palabras, sonidos, etc., enviando un flujo de s y por un cable, algo que hoy parece tan obvio porque obtenemos esa información de un servidor en St. Andrews, Escocia, y la vemos desde cualquier parte del mundo, era radicalmente nueva. Shannon consideró una fuente de información que generaba palabras compuestas por un número finito de símbolos.

Las ideas de los artículos publicados por Claude Shannon ayudaron a impulsar los campos de la teoría de la información y las comunicaciones digitales, siendo pioneros en el desarrollo de todas las redes de comunicaciones electrónicas en todo el mundo de las que dependemos para hacer posible la Era Digital. El Dr. Claude Elwood Shannon revolucionó las comunicaciones y la informática, y su vibrante personalidad y viva imaginación le hicieron merecedor del afecto de amigos, familiares y colegas teóricos de las comunicaciones.

La historia le recuerda sobre todo por sus contribuciones a la ciencia de las comunicaciones, su afición a manipular elementos mecánicos para fabricar artilugios, desde el frisbee propulsado por cohetes hasta un ingenioso ordenador llamado THROBAC (THrifty ROman Numerical BAckward-looking computer) que realizaba cálculos utilizando números romanos. La demostración por parte de Claude Shannon de la importancia central de un conocimiento de la lógica simbólica como fundamental para la comprensión del diseño de circuitos aseguró los niveles de eficiencia que necesitaban los sistemas informáticos cada vez más complejos.

Sobre George Boole

George Boole de Lincoln, Inglaterra, Reino Unido, es conocido principalmente como el autor de Las leyes del pensamiento, y el inventor del álgebra de Boole. Matemático George Boole Lincoln, Lincolnshire, Inglaterra, cuya álgebra lógica, ahora llamada álgebra de Boole, se utilizó por primera vez en matemáticas en 1889. George Boole (1815-1864) trabajó como maestro de escuela en Inglaterra, y desde 1849 hasta su muerte fue profesor de matemáticas en la Universidad de Queens, Cork, Irlanda. En la década de 1840, George Boole comenzó a colaborar con el recién fundado Cambridge Journal of Mathematics, y también con la Royal Society, que le concedió una medalla real en 1844 por sus trabajos sobre los operadores en el análisis; fue elegido miembro de la Royal Society en 1857.

En ese libro, abordó la lógica de forma novedosa, reduciéndola así a un mero álgebra que integraba la lógica en las matemáticas. Inventó el álgebra de Boole, que amplió la relación entre la lógica y las matemáticas. Cuando George Boole inventó el álgebra de Boole, su principal objetivo era encontrar un conjunto matemático de axiomas que reprodujera los resultados clásicos de la lógica.

Con su análisis matemático, surgió el álgebra booleana, a veces conocida como lógica booleana. En 1854, Boole introdujo y explicó la idea de tratar las leyes fundamentales que regulan la sociedad a través de teorías probabilísticas en su libro An Inquiry into the Laws of Thinking (Una investigación sobre las leyes del pensamiento), sobre el que fundó las teorías matemáticas de la lógica y la probabilidad. Para entender cómo George Boole (1815-1864) desarrolló su álgebra de la lógica, es útil examinar un esbozo más amplio del trabajo de fundamentación del álgebra realizado por los matemáticos de Cambridge durante el siglo XIX antes de que él iniciara su carrera. Este libro, destinado a un público general y que ahora vuelve a publicarse, es la primera biografía completa de George Boole (1815-1864), descrito en varias ocasiones como el fundador de las matemáticas puras, uno de los padres de la informática y el descubridor de la lógica simbólica.

Sobre Augustus DeMorgan

Además de la gran herencia matemática de Augustus De Morgan, tanto la sede de la London Mathematical Societys, De Morgan House, como la sociedad de alumnos del departamento de matemáticas del Oriel Colleges llevan el nombre de Augustus De Morgan. Augustus De Morgan (1806-1871) fue uno de los profesores de matemáticas más influyentes y exitosos del siglo XIX. De Morgan fue un matemático inglés muy importante en el siglo XIX. Augustus De Morgan fue un matemático de gran talento que, junto con George Boole, fue uno de los fundadores de la lógica simbólica en Inglaterra, pero, como era unitario y se negó a suscribir los Treinta y Nueve Artículos de la Iglesia de Inglaterra, se le negó una beca en Oxford o Cambridge, por lo que tuvo que buscar apoyo institucional en otros lugares.

El 27 de junio de 1806 nació el matemático y lógico británico Augustus De Morgan. Augustus De Morgan fue un matemático británico nacido en Madrás, India, el 27 de junio de 1806.

El profesor introdujo las leyes de De Morgan, cuyas mayores contribuciones fueron como reformador de la lógica matemática. De Morgan mantuvo correspondencia con Charles Babbage y dio clases particulares a Ada Lovelace, de quien se dice que escribió el primer programa de ordenador de Babbages. El profesor nunca fue miembro de la Royal Society de LondresA porque se negó a que su nombre figurara en ella. Cuando su hijo George, tan matemático de talento como su padre, fundó la Sociedad Matemática de Londres, de Morgan se convirtió en su primer presidente

Aplicaciones del álgebra

supercomputador

El álgebra booleana es una rama de las matemáticas que se ocupa de los valores binarios y sus combinaciones. Ayuda a simplificar la lógica de expresiones matemáticas complejas reduciéndolas a términos más sencillos. Como hemos visto en este artículo, y ahora toca ver algunas de las aplicaciones de esta rama en la computación:

Puertas lógicas digitales

Una puerta lógica es un circuito electrónico que se utiliza para realizar operaciones booleanas sobre valores binarios. Las puertas lógicas más comunes son las puertas AND, OR y NOT. Estas puertas tienen una entrada y una salida. La salida de una puerta lógica es un valor binario que es igual a la operación booleana de las dos entradas. Las dos entradas suelen estar conectadas a electrodos controlados por interruptores. Los electrodos están conectados o desconectados, lo que se traduce en un valor digital de 1 o 0. La puerta lógica responde al valor digital de los electrodos conectados a la puerta y produce una salida que también es binaria. Las puertas están dispuestas en circuitos preprogramados para realizar funciones específicas. Un ejemplo popular de puertas lógicas digitales son las puertas AND, OR y NOT.

Circuitos electrónicos

Un circuito electrónico digital es una red de componentes interconectados que realiza una tarea específica. En un circuito, los valores binarios de los componentes son altos o bajos. Un valor alto se traduce en un 1 binario, y un valor bajo se traduce en un 0 binario. El álgebra booleana del circuito se utiliza para determinar qué camino toman los valores binarios a medida que viajan a través del circuito. El diseño más común para un circuito electrónico es una red de resistencias, que utiliza el álgebra de Boole para determinar el flujo de corriente a través del circuito.

Cifrado de datos

El cifrado de datos es el proceso de convertir un texto plano en un código ilegible, conocido como texto cifrado, con el fin de proteger los datos sensibles. El proceso de encriptación de datos utiliza una clave, conocida como cifrado, para encriptar el texto plano. Hay varios métodos para cifrar datos, pero el más común es utilizar un sistema binario. Este sistema utiliza dos entradas, una clave y un texto plano, así como dos salidas, el texto cifrado y un mensaje de error. El texto plano se convierte en texto cifrado utilizando la clave. Las entradas de la clave y del texto plano se aplican a la ecuación booleana para producir la salida del texto cifrado. Existen varias técnicas para almacenar la clave, como en un dispositivo digital o escrita en papel.

Actualmente, con la computación cuántica, el cifrado tal como lo conocemos podría quedarse obsoleto.

Procesamiento digital de audio

El procesamiento digital de audio se utiliza para convertir las señales de audio analógicas en señales digitales, procesarlas mediante álgebra booleana y volver a convertirlas en señales analógicas. Un circuito que se utiliza en este proceso se llama amplificador operacional (op-amp). Un circuito op-amp utiliza dos entradas y una salida. El circuito responde a las entradas y produce una salida que es igual a la operación booleana de las dos entradas. Un circuito op-amp está preprogramado para realizar funciones específicas.

Memoria de ordenador

La memoria del ordenador almacena los datos en valores binarios, conocidos como bits. Los bits se almacenan en núcleos que se organizan en bytes. Los circuitos del ordenador utilizan el álgebra de Boole para leer y escribir datos en la memoria. Los circuitos del ordenador leen un byte y convierten cada bit en un valor binario. A continuación, los circuitos aplican la operación booleana para producir un valor binario que corresponde a una letra, un número o un símbolo. Cuando el circuito escribe datos en la memoria, utiliza el álgebra booleana para determinar en qué bit debe escribirse. Luego aplica la operación booleana para producir un valor binario que corresponde a una letra, número o símbolo. El circuito utiliza transistores para controlar el flujo de electrones en el núcleo para escribir los datos en la memoria.

Desarrollo de software

Los desarrolladores de software utilizan el álgebra booleana para determinar el flujo de datos. El software suele programarse con un lenguaje de alto nivel, como C++, que utiliza símbolos para representar determinados valores. Por ejemplo, un valor booleano puede ser representado por una variable llamada «x». El álgebra booleana es una rama de las matemáticas que se ocupa de los valores binarios y sus combinaciones. Ayuda a simplificar la lógica de las expresiones matemáticas complejas reduciéndolas a términos más sencillos. En este artículo, exploraremos cómo se utiliza el álgebra booleana en el mundo digital. Una expresión booleana es un enunciado lógico formado por variables, constantes y operadores que se evalúa como verdadero o falso. Las operaciones del álgebra booleana también se denominan comúnmente funciones de verdad porque producen un resultado que puede ser interpretado como verdadero o falso. Cada operador tiene dos entradas y una salida, lo que explica por qué el álgebra booleana también se conoce como álgebra binaria.

Isaac

Geek de los sistemas electrónicos, especialmente del hardware informático. Con alma de escritor y pasión por compartir todo el conocimiento sobre tecnología.
Los datos de carácter personal que nos facilite mediante este formulario quedarán registrados en un fichero de Miguel Ángel Navas Carrera, con la finalidad de gestionar los comentarios que realizas en este blog. La legitimación se realiza a través del consentimiento del interesado. Si no se acepta no podrás comentar en este blog. Puedes consultar Política de privacidad. Puede ejercitar los derechos de acceso, rectificación, cancelación y oposición en [email protected]
Botón volver arriba