¿Por qué no una Mac?

Introducción a nociones básicas del funcionamiento de computadoras modernas y guía de compras para principiantes

Se me pidió que redactara un texto capaz de enseñarle a alguien las diferencias entre Notebooks para Gamers de Asus o MSI comparadas con Notebooks de Apple y por qué sería mejor comprar las primeras en lugar de las segundas a pesar de la supuesta eficiencia y estabilidad del sistema operativo de Apple, más la estética de sus productos y la calidad de sus componentes.

Llamamos Laptop a toda aquella computadora que es posible usarla sobre la “falda” (lap en inglés), es decir sobre las piernas. Dentro de ellas se suele diferenciar entre dos grandes tipos, si la pantalla es de 9 a 13 pulgadas, se las llama Netbooks, más que nada porque su poder es inferior a las más grandes y están pensadas para navegar y usar aplicaciones web más que para usar aplicaciones nativas de la plataforma o sistema operativo en que este basada. De 14 pulgadas en adelante, siendo las más grandes de entre 17 y 23 pulgadas, se las llama Notebooks. Existen Ultrabooks de 13 pulgadas, pero las Ultrabooks siguen la filosofía de las MacBook Air, que no son más que una Netbook glorificada. Las Chromebooks son computadoras de baja potencia y bajo costo que vienen con un sistema operativo de Google llamado Chrome OS, que no es más que un Google Chrome que ejecuta aplicaciones web en lugar de aplicaciones almacenadas en los medios de la computadora, si bien algunas de ellas tienen la capacidad de funcionar off-line, dependen de la tienda de aplicaciones Google Play, y no encontraremos software profesional para esta plataforma y aunque los hubiera dependerían de la velocidad de nuestra conexión a internet.

La potencia de una computadora va ligada a la capacidad que la misma tiene para procesar información, esto es, cuantas tareas puede realizar al mismo tiempo, y que tan rápido puede hacerlas.

Lo primero que debemos analizar para deducir estos factores es el procesador, cuyo nombre correcto es CPU (Central Processing Unit), así es, CPU no es una carcasa o gabinete de computadora sino el procesador de la misma, el término se viene usando mal en Argentina desde hace años. Actualmente a esas “Processing Units” que hay dentro de un CPU se las llama núcleos (core en inglés) cada núcleo es un procesador en si, por lo tanto a mayor cantidad de núcleos mayor cantidad de procesos simultáneos, la velocidad de los núcleos se mide en GHz (Giga Hertz), en el mundo de las computadoras un Hertz es un ciclo por segundo, y sería el tiempo que tarda un pulso eléctrico en recorrer un circuito del núcleo, a una vuelta entera por el circuito se la llama ciclo, esto pasa continuamente dentro del procesador cada un intervalo regular que se conoce como “clock speed” (velocidad de reloj), estos ciclos son el reloj interno de los procesadores que le dicen a qué ritmo funcionar, por lo tanto 1 GHz serían 1000 MHz (Mega Hertz), o lo que es lo mismo, mil millones de ciclos por segundo.

Dependiendo del software que utilicemos, cada uno podrá hacer mejor o peor uso de un procesador multinúcleo, si el software está optimizado para hacer uso de esta cualidad, la tarea que el software le pide al procesador será ejecutada más rápido, ya que se reparte equitativamente entre todos los núcleos disponibles, pero si el software carece de esta optimización la tarea será realizada por uno solo de los núcleos, o dos a lo sumo. Tareas sencillas como el uso de un navegador como Chrome, pueden ejecutarse sin inconvenientes en un solo núcleo, pero los procesos de renderizado de imágenes (Adobe Photoshop) o de video (Adobe Premiere) se ven claramente acelerados cuando el procesador posee 4 núcleos o más.

Existen dos marcas de procesadores actualmente dominando el mercado en esta área, AMD e Intel. Los procesadores AMD suelen consumir más energía (electricidad en watts) y liberar mayor cantidad de energía calórica (que en los procesadores tambien se mide en watts) en el proceso (el movimiento de electrones dentro de un circuito siempre provocará perdida de energía calórica, cuanto más pequeños sean los componentes y mayor cantidad de ellos haya en menos espacio, mayor será el calor que liberen). Los núcleos en los procesadores AMD suelen ser menos potentes comparados con los núcleos de Intel, pero a cambio se pueden comprar procesadores de 6 u 8 núcleos por un precio muy inferior al de los procesadores Intel Core i7 más caros, que durante la tercera generación de esta familia de procesadores solo llegaron a tener un máximo de 4 núcleos, 6 durante la cuarta generación pero doblando el precio de los de 4 núcleos, y 8 núcleos en la quinta generación doblando el precio de los de 6 núcleos. A cambio Intel desarrolló una tecnología llamada Hyper Threading, que se podría llamar “capacidad multi-hilos” permitiéndole a cada núcleo manejar casi simultáneamente dos hilos de procesos, lo que en teoría elevaría la cantidad de núcleos del procesador, por cada núcleo real o físico, habría dos hilos por lo tanto al segundo hilo se lo puede considerar un núcleo virtual, en un Core i7 de 4 núcleos con Hyper Threading podemos decir que hay 8 núcleos, 4 reales y 4 virtuales. En la práctica los “núcleos virtuales” no se comparan en performance a los reales y siempre será mejor tener más núcleos reales con Hyper Threading que menos núcleos sin Hyper Threading.

Cuando el software que intentamos usar no está optimizado para hacer uso de todos los núcleos disponibles y así acelerar el tiempo en el cual sus procesos terminan de realizar cada una de sus tareas independientes, es el sistema operativo el que debe encargarse de distribuir los procesos entre cada núcleo libre disponible. Por lo tanto, podría utilizar tranquilamente un programa optimizado para ejecutarse en dos núcleos, más otros dos programas sin optimización ejecutándose cada uno en los dos núcleos restantes disponibles de un procesador de 4 núcleos, aunque en realidad, cada núcleo es capaz de manejar varios programas a la vez, esto nos da una idea de cómo este paralelismo de procesos multinúcleos puede mejorar la performance de un sistema acelerando la velocidad de los procesos gracias a la optimización que el sistema operativo posea para tal fin.

Actualmente el mejor procesador Intel Core i5 del mercado es el 4690, posee cuatro núcleos, pero como todos los i5 carece de Hyper Threading. Los mejores i7 que se pueden comprar hoy en día (omitiendo los de 6 y 8 nucleos) son el 3770 (de tercera generación) y 4770 (de cuarta generación) ambos con 4 núcleos y Hyper Threading. En Estados Unidos ya están disponibles cuatro modelos de Core i7 de quinta generación, pero estos funcionan bajo la plataforma Intel X99 (sería la forma de fabricar placas madres compatibles con esos procesadores) la cual usa memoria DDR4 (actualmente en el país y durante un par de años más el consumidor normal seguirá usando memoria DRR3). Para laptops Intel fabrica versiones reducidas de sus procesadores que consumen mucha menos electricidad y de esa manera ahorran batería. Los modelos Intel para laptops suelen tener una letra M (por mobile) luego del número de modelo, un procesador tipo M siempre será menos potente que el mismo modelo en su versión no M (es decir, desktop, o más claro, para computadoras de escritorio). Pueden aparecer otras letras luego del número de modelo de un procesador Intel, las más comunes son la K, que indica que dicho procesador es “oveclockable”, es decir que se le puede cambiar parámetros internos del “reloj de ciclos” del procesador para incrementar su velocidad, a cambio de lo cual tambien aumentará su temperatura y necesitará de un sistema de enfriamiento adecuado para alargar su vida útil. Otras letras frecuentes son la X, que indica que se trata de una versión “Extrema” generalmente tope de gama de la generación y suele incluir mayor cantidad de núcleos o mayor velocidad por núcleo que los no X. Y por último la Q que suele ser asignada a “rediseños” de un procesador existente al que se le han quitado determinadas características o bajado la velocidad de reloj para disminuir su consumo eléctrico o destinarlo a un sector de consumo más económico donde los rangos de precios son más bajos.

Estos “sectores de consumo” se encuentran bien diferenciados. Entry Level es el nivel más bajo, componentes diseñados para simplemente funcionar y a los que no se les puede pedir mucho más que eso, obviamente por esa razón es el segmento de menor precio. Consumer, es el usuario promedio, el cual requiere mayor capacidad de proceso que un Entry Level pero generalmente terminará usando aplicaciones utilitarias (Word, Excel, etc.). Prosumer, se trata del segmento destinado e los “semi-profesionales” o a consumidores normales pero con intereses profesionales, quienes suelen requerir un poco más de potencia pero no tanta. Enthusiast, se trata del segmento destinado a aquellos que su uso de las computadoras se podría comparar con el que “tunea” un coche, es decir que este tipo de usuario elegirá cada uno de sus componentes según las tareas que se proponga realizar, los componentes de esta gama suelen ser más caros y más potentes que la de todas las anteriores, y este tipo de usuarios generalmente se dedica a tareas de productividad, como son el uso de software de edición de imágenes, audio y video. El sector “Professional” comparte las características de los sectores Prosummer y Enthusiast, pero abarca diferentes niveles de profesionales los cuales pueden terminar usando componentes de otros sectores como Enterprise, Gaming, Workstations y Servers. El segmento Enterprise se caracteriza por la durabilidad de los componentes, lo que se busca es la eficiencia, por lo general son productos que permanecerán encendidos las 24 horas, y de los cuales se comprará gran cantidad por lo tanto se requiere bajo costo y gran durabilidad, se desechan características estéticas o de potencia para reducir los costos a cambio de aumentar la durabilidad, lo cual a veces se puede pagar más caro que el resto de todos los otros segmentos. Gaming, en este segmento los usuarios buscan potencia y elegancia, es decir que se suele pagar más por un producto que luce bien, aunque el “gamer” puro solo buscará potencia sin importarle la apariencia, si bien este segmento presenta productos muy caros es sin duda alguna el único segmento que ofrece mayor potencia por menor cantidad de dinero ya que a los gamers se los considera enthusiasts o prosumers, por lo tanto los componentes que llevan esta etiqueta suelen ser del agrado de los usuarios de esos dos segmentos y no solo de gamers y las empresas son conscientes de eso por lo tanto orientan la relación calidad/precio a satisfacer esos tres sectores. Workstations, se trata del tipo de computadoras que suelen usar los verdaderos profesionales de áreas como el cine, la producción musical, modelado 3D, o científicos. Son los componentes más caros y más potentes que existen y también poseen buena durabilidad, muchas “estaciones de trabajo” suelen estar montadas durante años en un estudio y requieren que esa potencia no se degrade con los años, placas de video profesionales como las Nvidia Quadro y las AMD FirePro conectadas a múltiples monitores suele ser la característica más visible de los setups (configuraciones de hardware de computadoras) de este segmento. Servers, estas computadoras pueden estar destinadas a diferentes segmentos pero comparten una característica, las cantidades de datos que manejan son enormes, y deben ser procesados lo más rápido posible, se utilizan una enorme cantidad de componentes en configuraciones llamadas clusters, permanecen prendidas las 24 horas del día y sistemas enteros como páginas y aplicaciones webs dependen de ellos, por lo tanto no se pueden dar el lujo de apagarlos aun cuando necesiten mantenimiento, para lo cual suelen usarse unidades de backup (respaldo) que toman control de los servicios que se estén administrando mientras se realiza el mantenimiento necesario es las unidades principales, en muchos casos se requiere que algunos componentes sean “hot swapable” (capacidad de poder intercambiarlos sin apagar el sistema), generalmente discos rígidos y en menor medida aceleradores de procesamiento gráfico como los Nvidia Tesla o coprocesadores como el Intel Xeon Phi (con hasta 61 núcleos). Si bien es un segmento en el que siempre se busca abaratar los costos por la gran cantidad de componentes necesarios, suelen ser los componentes más caros de todo el mercado, pero los de mayor durabilidad y potencia.

El mundo de las laptops también está segmentado por tipo de consumidores, pero las más potentes de cada marca suelen ser de la línea Gamer. Dentro de este segmento dos marcas pueden citarse como las más innovadores, potentes, confiables y durables de todo el mercado MSI y Asus. Ofreciendo notebooks con hasta 4 unidades SSD en RAID 0, doble placa de video Nvidia GTX y procesadores Intel i7 de cuatro núcleos con Hyper Threading. Sumado a pantallas que combinan mayores resoluciones con mejores tiempos de respuesta.

La velocidad en la que los monitores o pantallas realizan el “barrido” es decir el “cambio” o “refresco” de todos los pixeles de la pantalla se denomina “refresh rate” y se mide en Hz, cuando mayor sea esta frecuencia mejor es la respuesta de las pantallas a cambios rápidos en lo que se está visualizando, la mayoría de ellas usan la tecnología LCD aunque algunas suelen aparecer como LED, lo cual solo significa que estos paneles están retroiluminados con LED’s, facilitando la visibilidad en ambientes muy iluminados o a la luz del sol. Los paneles más rápidos son los de tipo TN, aunque suele considerase que representan los colores menos “acertadamente”, el ojo de un usuario normal no notaría la diferencia, para “corregir” ese detalle se inventaron los paneles con tecnología IPS los cuales poseen una mejor reproducción de los colores pero a cambio son más lentos que las pantallas TN, lo cual solo puede resultarle inconveniente a un hardcore gamer (jugador super-exigente), pero le vendrán mucho mejor a artistas, fotógrafos y cualquiera que trabaje con imágenes. Las resoluciones que actualmente deben tenerse en consideración son 1080p, 1440p y 4K. La resolución 1080p, también conocida como Full HD, FHD o BT.709, tiene una relación de aspecto de 16:9 (tipo ancho, o tipo cine) y cuenta con 1920×1080 pixeles, es decir que cada línea de horizontal de la pantalla está formada por 1920 puntos luminosos (pixeles) y cada línea vertical por 1080 pixeles. 1440p es una pantalla de tipo ancho con 2560×1440 pixeles. Y lo que se denomina 4K, Ultra HD o UHD, que es una resolución de 3840 x 2160 con relación de aspecto 16:9 o 17:8 casi cercana a la verdadera resolución de cine que es 4096 x 2160 en relación de aspecto 19:10 o 1:9:1. En esta época no tendría en consideración pantallas con resolución de 720p, que tienen una cantidad de pixeles de 1280×720 y se lo conoce como HD standard, porque resulta bastante inferior a los estándares actuales, ni tampoco otras resoluciones que fueran diferente a las anteriormente mencionadas ya que pueden provocar que lo que aparece en la pantalla adopte una apariencia “rara”, diferente a la que debería tener. Otro punto a considerar es la densidad de pixeles, es decir que en un monitor de 14 pulgadas con resolución de 1920×1080, los pixeles serán más pequeños, y la pantalla estará más “poblada” (mayor densidad de pixeles) que un monitor de la misma resolución (cantidad de pixeles) pero de 19 pulgadas, donde los pixeles serán considerablemente más grandes y al acercarnos lo suficiente podríamos diferenciar en donde empieza y donde termina cada pixel (menor población, o menor densidad). Lo que queremos es que siempre los pixeles sean lo más pequeños posible ya que la alta densidad siempre ofrecerá una mejor calidad de imagen, por lo tanto cuando más grande sea la pantalla (en pulgadas) mayor debe ser la resolución de la misma, para que los pixeles que la compongan sean más pequeños y por lo tanto la imagen tenga mayor densidad. Esto tambien depende de la distancia a la que la pantalla esté de nuestros ojos, a mayor distancia menos notoria será la baja densidad de pixeles de una pantalla, pero al irnos acercando la notaríamos más y más.

Otro factor que influye en la velocidad del sistema y por lo tanto en la calidad de la experiencia que tengamos con él, es la velocidad de las unidades de almacenamiento, si nuestro sistema operativo y la mayoría de nuestros programas se encuentran en una unidad lenta (un disco rígido de 5400rpm) será bastante notoria la lentitud con la que la totalidad del sistema opera, los discos recomendados son de 7200 RPM (revoluciones por minuto) o 10000 RPM, siendo estos últimos muchísimo más caros y menos frecuentes, la mejor alternativa para acelerar un sistema son las unidades SSD (Solid State Drive), llamados discos o unidades sólidas, o de estado sólido (una mala traducción del inglés, ya que solid state se refiere a que se trata de un dispositivo “transistorizado” o mejor dicho en este caso electrónico, compuesto por circuitos y chips) en contraposición con los discos rígidos que son mecánicos, magnéticos y eléctricos, las partes mecánicas de los discos los hacen muchísimo más lentos que las memorias de las computadoras, cuando decimos memorias nos referimos tanto a la RAM como a las de tipo flash (tarjetas de celulares o cámaras, y pendrives o unidades USB), los SSD son precisamente eso, memorias tipo flash, con controladores de alta velocidad y tipo de conexión SATA (Serial ATA, la misma que usan los discos rígidos), por lo tanto al usarlos para reemplazar a los discos rígidos las velocidades de lectura y escritura escalan a números muy superiores que los puede entregar un disco rígido. Las unidades SSD no poseen piezas móviles ni partes mecánicas, son totalmente electrónicas, la desventaja con ellas es la relación entre precio y capacidad, se pueden conseguir discos rígidos de 3TB por 100 dólares, mientras que con ese dinero tendremos que conformarnos con un SSD de 128 o 256 GB, dependiendo de marca y modelo, aun así todos son muchísimo más rápidos que un rígido y la mejora en velocidad total del sistema es inmediatamente notoria ni bien migramos de una tecnología a la otra. Precisamente por su baja capacidad de almacenamiento se usan generalmente para almacenar únicamente el sistema operativo y los programas más usados, usando para todo lo demás (imágenes, audio y video) discos rígidos. Aun así la mejora en velocidad es tal que al acostumbrarse a usar SSD nadie quiere volver a usar discos rígidos.

El siguiente factor a considerar es la memoria RAM, actualmente usamos del tipo DDR3, y las velocidades mínimas recomendadas son entre 1600 y 1866 Mhz, mayor memoria RAM nos dará la capacidad de ejecutar una mayor cantidad de programas simultáneamente, cuando damos la orden a la computadora de ejecutar algún software el CPU lee la información del disco rígido (o SSD) y la copia a la memoria RAM, que es donde se ejecutará el código de ese programa, la RAM es mucho más rápida que los discos rígidos en incluso que los SSD, así que este proceso de leer del disco, escribir en la RAM, ejecutar la tarea, y borrar de la RAM, sucede cada vez que ejecutamos algo, y de hecho casi todo el tiempo en que los programas abiertos estén realizando tareas, por lo tanto un SSD nos dará una velocidad de lectura mayor, lo que permitirá poblar la RAM más rápido, pero la mayor cantidad de los procesos que el CPU realice con los datos del programa serán hechos en la RAM y no en el disco rígido o SSD, eso incluye imágenes, audio y video, cuando más RAM tengamos más grande podrán ser los archivos con los que trabajemos o podremos trabajar con mayor cantidad de archivos al mismo tiempo. Por otro lado mucha RAM pero lenta no nos serviría de mucho, por lo tanto tambien debemos considerar ese factor, el cual es determinado por dos característica “clock speed” de la RAM medida en Hz, y CL (CAS Latency) que es el tiempo de demora y se mide en ms (milisegundos), generalmente aparecen en los datos de la RAM como CL9 para indicar 9ms o CL10 para indicar 10ms y así. A mayor velocidad de reloj mayor será la latencia, y eso incidirá en el precio, memorias de 2400Mhz con latencia 11 serán más baratas que memorias de la misma frecuencia pero con latencia 10, las cuales serán mucho más rápidas y por eso el precio abultado. A los 1600Mhz podemos encontrar latencias que van de 7 a 11 y en los 1866 latencias entre 8 y 13, un módulo de memoria con frecuencia alta como por ejemplo 2400Mhz pero con latencia tambien muy alta puede llegar a ofrecer la misma performance que una de 1600Mhz o 1866Mhz con una latencia muy baja, detalle a tener en cuenta a la hora de comprar. Por otro lado tanto el procesador como la motherboard (placa madre, o placa base) tienen en sus especificaciones técnicas una serie de frecuencias de memoria soportadas, si el procesador es capaz de controlar memorias de hasta 1600Mhz, ponerle al sistema una memoria más rápida que eso será considerado overclocking, por lo tanto la calidad de construcción y características de la placa madre serán el detalle más importante al usar esta configuración de memoria, ya que cuando mejor sea la mother se podrá encargar directamente de esos detalles con mínima o ninguna intervención por parte del usuario, recomiendo altamente el uso de placas madres Asus, ya que nunca en todos mis años de trabajar con computadoras he tenido problemas con ellas, y lo mismo aseguran muchos otros profesionales que las eligen a la hora de procurar estabilidad a sus sistemas. Por supuesto otras marcas de mothers como MSI, Gigabyte, EVGA o Asrock, pueden tener las mismas características que una Asus, pero siempre me inclinado a pensar que Asus ofrece la mejor calidad de componentes en sus placas madres de todo el mercado, lo cual impacta directamente con su durabilidad, estabilidad, y confiabilidad, de hecho hasta la más barata ofrece un mínimo de 5 años de garantía, más que cualquier otra marca en ese segmento de precios, en lo personal solo usaría placas Asrocks en sistemas cuyo principal fin sea ahorrar dinero, si bien no es una mala marca, definitivamente sus componentes son más baratos comparados con los de las otras marcas mencionadas.

En placas de video tenemos dos marcas que son las mayores fabricantes de GPU’s (Graphics Processing Units), AMD y Nvidia, parecido a la relación entre los CPU AMD e Intel, las placas gráficas basadas en chipsets (reglas de fabricación de circuitos para, en este caso, cada modelo de GPU o procesador gráfico) de AMD suelen consumir mayor energía eléctrica y liberar más calor, pero ofrecer mayor potencia de proceso a un menor costo monetario, cada marca presenta diferentes tecnologías de procesamiento gráfico, el más destacado de Nvidia en la actualidad es CUDA, se trata de una plataforma de computación paralela (como cuando hablábamos de procesadores multinúcleos) y modelo de programación, los programas que implementen esta tecnología pueden sacar más mejor provecho de placas Nvidia que de las AMD, como por ejemplo Adobe Premiere (editor de video), pero sin duda alguna lo más interesante de los procesadores CUDA de Nvidia es la capacidad de poder ser usadas para cualquier tarea computacional, y no solo las de tratamiento gráfico o de imagen, lamentablemente en el mundo del audio y la producción musical no existen muchas implementaciones optimizadas para funcionar en los núcleos CUDA de los procesadores gráficos de Nivida. AMD posee un tecnología denominada Mantle, que ofrece acceso de bajo nivel (eso significa acceso directo a los componentes de la tarjeta gráfica sin pasar por intermediarios como las API del sistema operativo) permitiendo mayores velocidades de trabajo y menores latencias a quienes hagan uso de esta tecnología, lamentablemente en la actualidad solo se ha implementado en juegos y no en software de productividad. Ambas marcas son capaces de usar tecnologías como DirectX, OpenGL y OpenCL, las dos primeras API’s (Application Program Interface) gráficas, utilizadas para presentar toda clase de gráficos en pantalla, pueden utilizarse para imágenes, videos, interfaces graficas de usuario, 3D, juegos, y todo lo que sea “dibujado” con pixeles en la pantalla, DirectX tambien ofrece extensiones de audio por lo cual es muy utilizado en la creación de juegos, pero nada impide que sea utilizado tambien para otros tipos de software. OpenGL y OpenCL son estándares abiertos, lo cual significa que una comunidad de programadores tiene libre acceso al código de los mismos y cualquier fabricante puede implementar estas tecnologías en sus productos, tambien cualquier persona tiene acceso a la comunidad que mantiene y actualiza esas tecnologías, por lo tanto se puede participar en su desarrollo si uno tiene conocimientos de programación. OpenGL es una API gráfica, y se usa principalmente para casi todo lo que se usa DirectX con la diferencia de que al ser abierto no hace falta pagar ni pedir permisos para utilizarla, algo similar pasa con OpenCL, aunque esa tecnología está más orientada al renderizado de gráficos en 2D y 3D. Las placas gráficas Nvidia suelen mostrar mejor performance en aplicaciones DirectX que las placas AMD, pero las placas AMD suelen obtener resultados muchísimo mejores en OpenCL que las Nvidia, superándolas 2 o 3 veces en la capacidad de procesamiento de esta tecnología. Por otro lado, los software de tratamiento de imágenes y video que ofrecen la posibilidad de renderizar por OpenCL tambien permiten hacerlo por CUDA si hay una placa Nvidia disponible, y en la mayoría de los casos los resultados de CUDA superan ampliamente a los de OpenCL. Así que debemos saber que tecnologías usan los programas y juegos que más usamos o usaremos, para saber qué tipo de placa gráfica conviene más a nuestras necesidades.

En el segmento Entry Level tenemos la línea GT de Nvidia, en los segmentos Consummer, Prosummer, Gamer y Enthusiast, Nvidia ofrece los modelos GTX de sus placas de video, mientras que para Workstations y servidores ofrece las Quadro y las Tesla. AMD ofrece las Radeon modelo R7 y R9 pasando por precios que van desde Entry Level a Enthusiast y diferentes modelos de FirePro para profesionales usuarios de Workstation o Servers.

Todas las marcas de notebooks poseen gama baja, media y alta, pero la gama “gamer” es totalmente aparte, y ofrecen siempre la mayor potencia, incluso más que otras marcas que dicen tener nivel “workstation”, que es básicamente lo que se dice de cualquier computadora Apple (iMac, Mac Pro, Mac Mini, MacBook, MacBook Pro y MacBook Air), se suele decir que los componentes internos de toda la línea Mac tienen nivel de Workstation y/o “nivel enterprise” lo cual no es cierto, internamente la calidad de los componentes es igual o tal vez un poco inferior a la de cualquier PC armada con componentes de marcas como Asus (placa madre), Intel (procesador), Kingston/Corsair (memoria RAM), Western Digital (discos rígidos) y Corsair/Kingston (SSD), en esta última categoría los que ofrecen mayor velocidad, confiabilidad y durabilidad son las líneas EVO y PRO de Samsung y la línea Neutron GTX de Corsair. Aunque la mayoría de los SSD son buenos (Corsair, Kingston, Adata, Crucial, Plextor, Mushkin, etc.) cada uno puede ofrecer velocidades de lectura y escritura diferentes, y los que vienen de fábrica con las Mac suelen ser más lentos que los disponibles en el mercado. Más allá de eso, cualquier cosa que haya adentro de una Mac salió de las mismas fábricas chinas de las que sale cualquier componente que se use en el armado de PC’s. Cada marca ejerce diferentes controles de calidad y tiene diferentes políticas, y en mi experiencia si bien el control de calidad hecho por Apple suele ser bastante exigente no lo es tanto como el de Asus, sin mencionar que los componentes (chips, integrados, transistores, diodos, resistencias, capacitores, inductores y las propias placas de pertinax) suelen ser más “baratos” que los que les exigen marcas como Asus y Corsair a las MISMAS fábricas.

La gran diferencia es nada más que estética, la MacBook Air por ejemplo tiene cuerpo de aluminio macizo cavado, es decir que no se usa un molde, sino que se talla (por decirlo de alguna manera) la forma de la MacBook Air. Esto infla bastante el precio, pero todo producto Apple agrega un “plus” que representa la forma en la que la gente ve a sus productos y a la marca, es decir que la mayor cantidad del precio de una Mac es valor agregado (estética, packaging, branding y lo que representan ante el imaginario colectivo), y no las características del producto en sí mismo.

Un núcleo es un procesador, o sea que cuando decimos procesador de cuatro núcleos estamos hablando de cuatro procesadores en uno. Siempre recomiendo usar procesadores de 4 núcleos o más, la mayoría de los programas y sistemas operativos actuales son capaces de paralelismo, es decir, el uso de más de un núcleo cuando la aplicación que se esté ejecutando no haya sido optimizada para ello. La diferencia entre un i5 de cuatro núcleos y un i7 de cuatro núcleos, es que el i7 tiene una tecnología llamada Hyper Threading que le permite usar cada núcleo para dos “hilos de procesos” simultáneos, básicamente es como tener un núcleo virtual extra por cada núcleo real, o sea 8 núcleos en total, 4 reales y 4 virtuales. El paralelismo es lo mejor a la hora de usar programas que requieran de muchos recursos y muchos procesos (lo que llamamos programas pesados). Mayor cantidad de núcleos de menor velocidad darán mayor velocidad de procesamiento en programas optimizados para usarlos, al contrario, los mismos programas se verán bastante ralentizados si la cantidad de núcleos es poca aunque la velocidad de los mismos sea alta, aunque procesos mononúcleo si mostrarían una mejoría de su performance en este escenario.

Los usuarios de PC estamos acostumbrados a poder intercambiar cada una de las partes fundamentales (placa madre, procesador, memoria RAM, placa de video, unidades de almacenamiento, fuente de alimentación, etc.) una a una cuando necesitamos una mayor potencia de proceso, mayor capacidad o velocidad de medios de almacenamiento o de la RAM, mayor potencia gráfica, o un cambio de plataforma (lo que dictamina que clase de procesador y memoria podemos usar).

Las Macs siempre se han caracterizado por ofrecer menos posibilidades en este departamento. Si bien la anterior versión de la Mac Pro permitía cambiar, actualizar o mejorar (como le quieran decir) algunos de sus componentes, el modelo actual solo permite cambiar RAM y unidad SSD (a través de un puerto mSATA PCIe) no permite cambiar la placa de video ni aumentar la cantidad de placas de video, siendo el máximo dos, cuando anteriormente era cuatro como la mayoría de las PC cuyas placas madres permiten configuraciones SLI (Nvidia) y/o Crossfire (AMD). Los usuarios de Mac aseguran que se pueden conectar cualquier clase de dispositivos a través de los puertos Thundervolt, una especie de reemplazo para USB y FireWire ideado por Intel, y capitalizado por Apple, pero que aún no ha logrado llamar la atención ni de profesionales ni de usuarios comunes, quienes solo han usado este puerto para unidades de almacenamiento externas como discos rígidos portátiles, aun cuando pueden usarse hasta para conectar placas de video y monitores, los cuales siguen utilizando conectores DVI, HDMI o DP (DisplayPort). Y si, en el futuro podrán conectarse placas de video a través un cable “tipo USB”. Aunque Thundervolt no es exclusividad de Apple y cualquier fabricante puede implementarlo, al día de hoy las placas madres de las marcas más renombradas ofreciendo este tipo de conectores (o puertos) pueden contarse con los dedos de una mano, por dos razones, primero la poca adopción tanto del público y por consecuencia de los fabricantes de productos tecnológicos, y segundo, el riesgo que representan. Los puertos Thundervolt proveen a dispositivos externos la capacidad de conectarse a puertos PCIe (PCI Express) internos de la computadora, los cuales a su vez se conectan directamente al procesador, y así es como ha nacido el peor virus de Mac y a su vez el peor virus de la historia. Cualquier dispositivo que use Thundervolt e incluso el propio cable puede modificarse para contener código que sea ejecutado directamente por el procesador de la computadora ignorando al sistema operativo, si bien esto puede ser algo bueno para los fabricantes de hardware que sean honestos, ese código podría ser malicioso (lo que comúnmente llamamos virus) y de hecho, ya se ha hecho, el virus afecta solo a Macs con puertos Thundervolt y al contagiarse no puede ser removido de la Mac ni formateando ni reinstalando el sistema operativo, ya que se encuentra en partes internas no accesibles por el usuario ni por el propio sistema operativo, de hecho, el virus se ejecuta incluso antes de que el sistema operativo pueda iniciar. Obviamente las posibilidades de contraerlo hoy en día son muy muy bajas, pero aun así es uno de los desastres de seguridad más grandes de la historia. Por otro lado existen muchos virus de Mac, todas pueden contraer virus, ya que los virus son programas, generalmente pequeñas porciones de código, pero son ejecutables, y el sistema operativo es incapaz de diferenciar si son maliciosos o no, la razón de que sean menos frecuentes en Mac que en Windows, es que en realidad Windows es el sistema operativo más usado en todo el mundo, miles de millones de computadoras usan versiones viejas y modernas de Windows todos los días, y es relativamente sencillo para alguien con conocimientos de programación crear virus para esa plataforma, derivando en que la falta de interés de creadores de virus y software malicioso de crearlos para Mac se debe a la pequeña porción del mercado que estas representan comparadas con Windows. En este momento se podría aclarar que software malicioso sería cualquiera que realice tareas que el usuario no solicitó, tanto Windows como Mac OS X son plataformas de código cerrado, y los contratos de los programadores que trabajan en ellos tienen cláusulas de no-divulgación, aun así se puede rastrear que procesos de nuestro sistema operativo están transmitiendo información a través de internet y ver tambien a que IP o URL dirigen esas transmisiones, lo cual nos lleva a que ambos sistemas operativos realizan maniobras de “data harvesting”, o sea, coleccionan información de sus usuarios que luego es utilizada para “emplazamiento de productos”, significando que la información es “vendida” a diferentes empresas que la utilizan para crear perfiles de nuestros hábitos de consumo, lo cual puede convertirse en dinero cuando logran mostrarnos publicidades acordes a nuestros intereses, ya que otras empresas pagan para que esa publicidad sea efectiva, es decir que cause en los usuarios un click o una compra, estás empresas pagan un porcentaje menor por cada visualización efectiva y uno mayor por cada click, hasta ahí lo de publicidad, pero en algunos extremos se trata de empresas asociadas (programas de partnering) que tambien pueden pagar por cada compra realizada.

Considerando lo anterior, estas porciones de código de los mencionados sistemas operativos tambien pueden llegar a considerarse maliciosos, desgraciadamente el sistema de software cerrado no permite corroborar el código y sin eso no se puede tener pruebas para iniciar acciones legales, ya que se escudan en el copyright y otras licencias privativas, el famoso contrato de licencia de usuario final que todos aceptamos sin siquiera leerlo cada vez que instalamos algo. Existen dos paradigmas de programación que pueden librarnos de estos códigos maliciosos, uno es el free software (software libre) y el otro es el open source (software de código abierto) sin bien cada modalidad tiene características diferentes ambas permiten leer el código de los programas creados con esas filosofías, por lo tanto la existencia de códigos maliciosos dentro de programas oficiales (no virus) puede ser corroborada por usuarios con conocimientos de programación, ninguno de estos programas posee código malicioso, ya sea por filosofía o porque comunidades de programadores independientes a la marca, fábrica, o creadores del software, se encargan de revisar cada línea de código. Dentro de estas categorías podemos encontrar sistemas operativos como GNU, Linux y BSD, en los cuales el código abierto también permite la existencia de muchas versiones diferentes llamadas distribuciones (abreviado distros) mantenidas por diferentes comunidades, y todo el software que viene con ellos o que se puede conseguir para ellos sigue los mismos lineamientos de las filosofías madres por las cuales fueron creados, aunque también existen de los que llamamos mixtos, los cuales contienen software de código cerrado, y son una solución para quienes dependen de algunas tecnologías que solo existen en formato cerrado, como Adobe Flash, o algunos codecs de audio y video.

Las notebooks no gamer permiten cambiar los discos rígidos, o reemplazarlos por unidades SSD, y la memoria RAM. Las notebooks gamer en cambio pueden ofrecer aparte de las opciones anteriores la de cambiar placa de video (o placas, algunas poseen dos aún en el pequeño espacio que ocupan) y en casos extremos también permiten el reemplazo del procesador.

Asus y MSI ofrecen las mejores notebooks gamers del mercado. Asus por la calidad de sus componentes internos, muy superiores de los de cualquier Mac. MSI por otro lado puede llegar a ofrecer múltiples SSD (hasta 4) en configuraciones RAID 0 (es una forma de interconectar unidades de almacenamiento que permite doblar o triplicar la velocidad de las mismas), doble placa de video interconectadas por SLI (la tecnología de Nvidia que permite a dos o más de sus placas trabajar como una duplicando la potencia), y teclados mecánicos en su modelo tope de gama, son los mejores teclados para quienes tipean mucho, sean programadores o escritores, y por lo tanto también para quienes hacen uso intensivo de las teclas (gamers), poseen pulsadores del tipo Cherry MX, considerados como los mejores disponibles.

En las notebook Apple en cambio se puede cambiar poco y nada. Recordando que el cuerpo de la MacBook Air es de aluminio macizo, es imposible de abrir, y por lo tanto imposible cambiar nada de lo que tenga adentro. Otras pueden permitir cambio de unidad de almacenamiento o de unidad óptica, pero no mucho más. Se debe a lo que llamamos obsolescencia planificada. Es decir, los productos Apple están diseñados para ser usados por una determinada cantidad de años para luego generar la necesidad en el usuario de un reemplazo que sea mejor, más potente, o más rápido, de hecho pueden actualizar el software de las Mac sin consultar ni pedir aprobación al usuario o pueden cancelar todas las actualizaciones de los productos viejos, quedando como única opción comprar una nueva. El componente que llegará primero al final de su vida útil es la batería, la cual no se puede reemplazar en una computadora que no se puede abrir, solo hay dos maneras de reemplazarla, comprando una nueva computadora, o enviándola a Apple para que sea reemplazada, para lo cual la compra de la misma tiene que haber sido a través uno de sus canales oficiales, y haber comprado junto con ella la garantía extendida que ofrecen bajo el nombre “Apple Care”. Pueden negarse a reemplazarla en computadoras viejas para las que ya no ofrezcan mantenimiento ni soporte técnico o que no tengan o haya vencido su plan de Apple Care. La batería en una notebook gamer y en cualquier otra notebook es el componente más fácil de reemplazar. El servicio técnico de Apple y su servicio de atención al cliente, si es que tenés que hacer uso de alguno de ellos, son los peores que existen, sus técnicos no son técnicos, son incapaces de responder cual es la velocidad de la unidad SSD que se ofrece con el último modelo de Mac Mini o cual es la resolución máxima de monitor soportada por su placa de video. La mayoría del personal de atención telefónica de Apple solo son entrenados en ventas y están más interesados en vender una Mac que en ayudarte.

La Mac Mini 2012 permitía comprarla con un procesador i7 de notebook con 4 núcleos, disco rígido de 500GB y memoria de 4GB de 1600Mhz, siendo la única parte no actualizable de las mencionadas precisamente el procesador, así que se podía tener una Mac por un precio razonable y reemplazar la RAM por 16GB de memoria de 1600Mhz y el disco rígido por una unidad SSD. Con esos cambios al hacer los testeos de potencia daba números superiores a los de algunas iMacs, así que era un buen negocio. Cada modelo siguiente fue permitiendo hacer menos cambios, hasta llegar al modelo 2014, la cual solo se ofrece con i5 de doble núcleo, no se le puede cambiar la RAM ya que está soldada a la placa madre (o placa lógica, como la llama Apple) y el disco rígido se encuentra en un lugar casi inaccesible que requiere de un desensamble total de sus partes para poder acceder a él y reemplazarlo por un SSD. Apple no quiere que sus usuarios actualicen sus Macs porque quieren que cuando necesites más de ellas compres una nueva o directamente convencerte de que compres una más cara desde el vamos. Cada cierta cantidad de años Apple realiza actualizaciones masivas de todo su software incluyendo sistema operativo, lo cual vuelve obsoleto cualquier modelo viejo, podés seguir usándolo con el software que ya tiene instalado, pero no podés instalar nuevo software nunca más, ya que el nuevo es incompatible con el sistema operativo viejo, y peor aún el software viejo tampoco funciona con el sistema operativo nuevo, obligándote a volver a comprar las nuevas versiones de esos programas aunque ya habías pagado por ellos en tu anterior Mac. Se puede evadir esto realizando una maniobra conocida como “Jailbreak” (escaparse de, o romper, la cárcel), la cual cancela las prohibiciones que el sistema operativo ejerce para que todo el software instalado provenga de la Apple App Store y no de otras fuentes. Es viable pero hacerlo rompe con la filosofía que la mayoría de los usuarios de Apple suelen tener, básicamente sería “hackear una mac”. Lo más curioso es que los fundadores de Apple se llamaban a sí mismos hackers, y durante esa época sus publicidades hacían ver que sus productos eran para quienes rompían las reglas, de un tiempo a esta parte las publicidades de Apple solo demuestran que tan tontos Apple cree que son sus usuarios, basta con prestarles atención para darse cuenta que sus productos estás destinados a gente poco inteligente y con mucha plata. Lo que me lleva al injustificable inflado precio de las Macs, las PC de gama más alta con exactamente los mismos componentes internos de una Mac salen menos de la mitad que esa Mac, o dicho en otras palabras gastar el dinero que sale una Mac en una PC te da el doble (o más) de potencia y calidad que te da una Mac de ese precio. Y por último, PC es una norma inventada por IBM e Intel con ayuda de Microsoft, el nombre completo es PC IBM Compatible, llamada así por el hecho de que con esta norma cualquier fabricante puede crear componentes compatibles con la misma y los usuarios u otras empresas pueden armar computadoras compatibles con la norma usando esos componentes. Cuando las Macs usaban procesadores Motorola 68000, y luego IBM PowerPC, eran totalmente incompatibles con la norma PC, al pasarse a procesadores Intel, se volvieron en automáticamente compatibles, prueba de ello es la posibilidad de instalar Windows en una Mac a través de lo que Apple llama Bootcamp, pero al hacer esto, lo que en realidad hizo Apple es crear computadoras PC IBM Compatibles, y venderlas bajo el nombre Mac sin decirles a los usuarios que en realidad son PC’s pero con una etiqueta de precio injustificadamente elevada. Otra prueba de que las Macs son PC’s, es que se puede armar una computadora con componentes de PC de las marcas que ya estuve mencionado, e instalarle Mac OS X, a estas computadoras se las llama Hackintosh, obviamente por la palabra hack, y porque Mac es abreviación de MacIntosh, llamadas así por un tipo de manzana, supuestamente la mejor, por otro lado el logo original de Apple era Newton debajo de un árbol de manzanas. Y un dato totalmente irrelevante, el primer PDA (personal digital assistent, intentos de tablet muy anteriores a la primera tablet exitosa) de Apple se llamaba Newton, y aparece en Los Simpsons demostrando uno de los más grandes problemas de toda la historia de Apple, incluso la actual, el reconocimiento de escritura, Nelson escribe Beat Martin (golpear a Martin) con su lápiz stylus en su Newton y este último interpreta Eat Marta (comer a Marta), aún hoy la frase es usada dentro de Apple, cada vez que hablan de arreglar el autocorrector del iPhone dicen “comer a Marta”. Apple tampoco inventó las tablets, el iPad es muy posterior a las primeras tablets que aparecieron, aunque sin duda si fue el primer producto en este formato en ofrecer una experiencia de usuario satisfactoria a través de su sistema operativo. Cada producto Apple fue copiado de algo que existía antes, tanto en funcionalidad como diseño y apariencia estética. Solemos decir que no es una empresa innovadora o creativa sino una empresa de fórmulas (o pociones, o recetas), que añade un poco de esto, un poco de aquello, y te convence de que lo inventaron ellos. Sin mencionar que hay gente con tanto “engagement” con la marca que está dispuesta a pagar cualquier suma de dinero por lo que sea que la empresa largue al mercado. Estéticamente Apple lleva años copiando antiguos diseños de la marca Brown, basta buscar en Google algunas fotos para encontrar las similitudes.

Con respecto a la temperatura que levantan los componentes de las computadoras, el intercambio de electrones siempre provoca liberación de energía en forma de calor, de luz o de ambas. Cuando más potente es un componente mayor calor liberará, eso se soluciona con buenos sistemas de enfriamiento, los hay por aire, por líquido (con agua y radiadores, como los autos), y en los casos más extremos por aceite mineral, que son las computadoras sumergidas que parecen peceras. Si una computadora no libera calor se puede deber a dos razones, a su baja potencia, o a tener un sistema de enfriamiento totalmente eficiente, lo cual es imposible ya que temperatura habrá, el hecho que no la sintamos es otra cosa, por ejemplo, volviendo a la MacBook Air, un cuerpo de aluminio macizo, o actúa como el mejor disipador de calor del mundo, o no permite que sintamos el calor producido por los componentes internos debido a que la transferencia de calor es mínima o inexistente, o a que el grosor del aluminio evita que el calor llegue a atravesarlo completamente, pero definitivamente el calor tiene que estar ahí adentro si es que se trata de electrones moviéndose, y de eso se trata la electrónica, o en última instancia está laptop es menos potente que una Chromebook y por eso casi no genera una cantidad de calor perceptible por el ser humano.

Me veo en la obligación de aclarar que mis dos últimas computadoras fueron PC’s y ambas me duraron 5 años teniéndolas prendidas las 24 horas del día, algunas personas me han dicho que sus MacBooks solo les duraron dos o tres años con muchas horas menos de uso diario a las que yo les doy a mis computadoras.

Últimamente me han hecho reflexionar sobre el rol de la tecnología, la cual debería ayudar al ser humano y facilitarle las tareas para las que se la pretenda usar, los usuarios de Apple más inteligentes con los que he hablado han destacado el hecho de que para usar una computadora tipo PC con Windows (o Linux) como sistema operativo como lo hago yo, durante 5 años de uso continuo 24 horas diarias, sin un solo cuelgue ni error de compatibilidad de hardware ni de software, se necesitan conocimientos que no todo el mundo tiene el tiempo, la paciencia, capacidad o disponibilidad para adquirir, y que si el rol de la tecnología es facilitar y no complicar, es mucho más viable un sistema que no ponga a sus usuarios en la obligación de adquirir conocimientos para un uso satisfactorio de los mismos, el famosos “conecte y use”, haciendo una analogía con la serie de ciencia ficción Star Trek, el avance tecnológico debería permitir que manejar una nave espacial no sea una tarea que requiera haber completado carreras equivalentes a las de Ingeniería en Sistemas o en Electrónica, ni ser experto en Física Cuántica, debería ser algo más parecido a como actualmente se maneja un auto. La postura de pagar de más, por esa tranquilidad de que el uso no requerirá de conocimientos que no poseo, y la facilidad y sencillez me permitirán hacer directamente lo que quiero sin ninguna clase de preámbulo ni complicaciones, me resulta similar a la de quien compra una consola de videojuegos de última generación por las mismas razones, sin importarle que el hardware que las mismas poseen en su interior no son la ULTIMA tecnología, sino más bien tecnología de hace varios años atrás, e invertir esa misma cantidad de dinero en una PC personalizada para precisamente lo mismo, que sería jugar, si nos dará componentes que representen la tecnología disponible actualmente en los mercados, con una potencia varias veces mayor a esas consolas, y una compatibilidad con una gama mucho más amplia de juegos, y a una computadora de esas características se le podría conectar cualquier clase de monitor, de cualquier cantidad de pulgadas, y hasta 6 monitores simultáneos formando paneles aún más grandes que algunos televisores actuales, y con la placa de video adecuada se podrían usar resoluciones de 4K sin problemas, y si alguien menciona que la exclusividad de los títulos (cuando un juego sale solamente para una consola) es excluyente a la hora de decidirse por un sistema de juegos (consolas o PC), la mayoría de esos títulos dejan de ser exclusivos luego de un año de su estreno, ya que una versión de PC de los mismos sale tarde o temprano, y aun así, Windows posee una mayor cantidad de títulos exclusivos que todas las consolas sumadas, ya que muchos juegos solo funcionan sobre Windows y no en consolas. Pero si toda esa comodidad que mencioné antes, es lo más importante para vos, tanto que no te importa cuánto dinero tengas que desembolsar para tenerla, entonces adelante, compra una Mac (o PlayStation o Xbox).

La mejor computadora es aquella que tengas ahora mismo y que te permita hacer aquello que intentas hacer, o la mejor que puedas pagar, o aquella que te parece más cómoda o más sencilla. Sea cual sea tu prioridad, la cual podría ser que lo haga más rápido, o que lo haga mejor, con mejores resultados o de una manera más eficiente, un punto de equilibrio entre la calidad del resultado obtenido y la velocidad con la que fue logrado, o que llegar a ese resultado sea más sencillo y sin complicaciones ni imprevistos, la mejor computadora es simplemente aquella que te parece mejor o la que más te gusta. Yo, hoy, elijo PC con Windows (o Linux).

Aclaraciones

No admiro al creador de Linux, es más, creo que siento lo contrario a la admiración, no sé si me desagrada más Linus Torvalds o Steve Jobs, no, creo que más Steve Jobs.

Linux es solamente el kernel (núcleo) del sistema operativo, es un conjunto de instrucciones que hacen que todo ande, y el encargado de comunicarle al hardware lo que el software quiere hacer. La mayoría de las aplicaciones que la gente llama Linux (como sistema operativo no como kernel) pertenecen al proyecto GNU, que es un proyecto de sistema operativo completamente abierto creado por Richard Stallman bajo la filosofía del “free software” (tambien creada por Stallman). Así que Linux (como sistema operativo) debería ser llamado GNU/Linux, que se lee GNU con Linux (sistema operativo GNU con kernel Linux). Hay otros kernels pero Linux funciona bien y por eso es tan usado. A quienes admiro son a Ken Thompson y a Dennis Ritchie, creadores del lenguaje de programación C y del sistema operativo Unix, en el cual están basados casi todos los sistemas operativos modernos (GNU, GNU/Linux, BSD, FreeBSD, OpenBSD, NetBSD, Solaris, SunOS, Mac OS X, etc.) excepto Windows.

También por un tiempo admiré a Gary Kildall, creador de CP/M, el sistema operativo del cual Seattle Computer Products se copió para hacer el QDOS, que luego fue comprado por Microsoft, reescrito, y renombrado MS-DOS. Y admiro a Bill Gates, fundador de Microsoft. Pero Steve Jobs y Linus Torvalds siempre me cayeron mal. Y también me cae un poco mal Andrew Tanenbaum, creador de Minix, un sistema operativo basado en Unix que “inspiró” a Linus Torvalds a crear su propio kernel y más tarde llamarlo Linux.

Así que los padres de lo que hoy en día la gente llama Linux son Richard Stallman y Linus Torvalds, y los abuelos serían Ken Thompson y Dennis Ritchie. Admiro a Stallman, a Thompson, a Ritchie y a Gates, me desagradan Torvalds y Jobs, no siento admiración por Kildall pero lo respeto, y Tanenbaum no me desagrada, pero tampoco lo respeto del todo.

Ninguno de los padres de GNU/Linux usan Ubuntu (basado en Debian) ni Debian, Linus Torvalds usa Fedora, que deriva de Red Hat, y Richard Stallman solo usa distribuciones GNU/Linux que sean 100% libres. Que son las que figuran en esta lista:

https://www.gnu.org/distros/free-distros.html

Si te gusta lo que lees considera contribuir con este blog para que el mismo pueda tener más y mejor contenido. Contribuir.

Licencia Creative Commons
Esta obra de Juan Pablo Castañeda está bajo una Licencia Creative Commons Atribución 3.0 Unported.

Anuncios

Opinión sobre el fanatismo

Al despertar esta mañana y entrar a YouTube encuentro que una persona que conozco había subido un video, y lleno de intriga me puse a verlo, trataba sobre la opinión de una persona que estimo sobre el fanatismo, y no pude más que abrir Word y ponerme a escribir una respuesta con todos los pensamientos que en ese momento cruzaban por mi mente.

Mi respuesta

Definitivamente así como hay fanáticos de algún deporte, o deportista, o artista, o actividad en particular, tambien puede haber anti-fanáticos de todas esas cosas pero, como bien dijiste, tambien hay aquellos que son anti-fanáticos del fanatismo en sí, curiosamente un anti-fanático que defienda tanto su postura como lo hace alguien que es fanático de algo, es definitivamente, un fanático. Fanático de su propio anti-fanatismo. Lo mismo que los ateos o agnósticos obsesionados con su filosofía de vida que siempre andan buscando algún religioso con quien discutir, ellos practican eso en lo que creen con el mismo fanatismo que lo hacen aquellos a quienes desprecian precisamente por ser así. Del mismo modo, podríamos hablar del fanatismo de algunos vegetarianos y veganos, como sea, hablamos de extremos, ese extremo en el cual tu vida depende de demostrar a los demás lo equivocados que están. Algo con lo que me he sentido cómodo gran parte de mi vida, ya que suelo ser el primero en expresarme elocuentemente para demostrar que el otro está equivocado cuando estoy seguro de que lo está. Solía hacerlo todo el tiempo, y aún lo sigo haciendo, solo que con menor frecuencia de antes. Definitivamente nos vamos moviendo hacía posturas que nos permiten una mejor convivencia con nuestro entorno. Podemos hablar de calidades en la composición o interpretación de determinada pieza, y claro, si comparamos a ese nivel, músicos de gran fama hoy en día se quedan chicos antes los grandes del pasado. Pero al parecer, antes que el sentido crítico que nos permite juzgar el virtuosismo de un intérprete o compositor, está algo que a veces solemos olvidar que ahí está, el gusto, a la gente puede gustarle cualquier cosa sin tener razones para eso, seguramente si pudiéramos analizar psicológicamente a cada uno, encontraríamos ciertas predisposiciones para desarrollar determinados gustos, pero para lo que estamos hablando hoy, eso no viene al caso, ya que estamos tratando de expresar que no está mal que te guste algo aunque ese algo sea criticado de falta de profesionalismo, falta de calidad, de inventiva, de virtuosismo, o de lo que sea, por personas que supuestamente saben de lo que hablan, ya que cuando algo te gusta, no se trata de poder explicar el por qué te gusta, y todos sabemos que la mayoría fracasarían al explicarlo, ya que el “ay! porque es tan lindo!” no es un argumento válido cuando lo que se analiza es su música y no su apariencia física. Pero nuevamente se trata de tu gusto, algo que ya tenés formado, y nada de lo que yo diga podrá cambiar tu opinión. En esos casos se suele hablar de pasión, algo que todavía sigo sin entender, soy una persona que carece totalmente de eso que llaman pasión, me ha tocado hablar con personas que terminan diciéndome frases como “¿un argentino que no le gusta el mate?” o “¿un hombre que no le gusta el futbol?” entre otras, la mayoría de las personas parecen no ser conscientes de la enorme cantidad de personas que viven en este planeta, ni de la propia “enormidad” del planeta mismo, ni de las distancias, ni de la diversidad que puede existir en un mundo tan vasto, si tu reacción es esa al hablar con alguien como Nahuel o como yo, especialmente cuando hablamos de nuestros gustos musicales, entonces, ¿no estás siendo tan “cerrado” como aquellos que alguna vez te dijeron que tu música o tus creencias eran una mierda?, se trata de tolerancia, no quiero discutir si lo que a mí me gusta tiene una calidad musical superior que a lo que vos te gusta, seguramente esa sea mi opinión, pero no lo voy a decir para empezar una discusión con alguien que no está dispuesto a cambiar la suya solo porque alguien más se lo diga, de hecho, yo no cambiaría la mía, soy lo bastante consiente de que lo que me gusta es algo que quiero disfrutar todos los días, y no porque alguien me diga que la música clásica o Sonata Arctica, o Iron Maiden son una mierda, voy a dejar de escucharlos para empezar a escuchar a Justin Bieber o a Arjona. Bien, si podemos llegar a esa conclusión por nosotros mismos, no nos queda otra que aceptar que los fanáticos de Bieber o Arjona no dejarán de serlo sin importar que tan científicas sean las pruebas de que su música es inferior y que hay cosas mucho mejores, porque no se trata de una competencia sobre quien escucha mejor música, se trata de gustos, y sobre gustos no hay nada escrito. Bueno, de hecho si lo hay, pero el refrán quiere decir que te puede gustar cualquier cosa, incluso lo que a otras personas puede parecerles repugnante, y eso no está mal, no está mal que te guste, está mal que quieras imponérmelo porque mi juicio es diferente al tuyo, y no vas a lograr cambiarlo solo porque creas que lo tuyo es mejor que lo mío, así como yo tampoco lograré cambiarte a vos. Ya que no hay una manera de medir o pesar los gustos, si realmente disfrutamos de lo que nos gusta no nos detenemos a pensar si es técnicamente correcto o si la letra dice realmente algo o repite 20 veces la misma palabra, o si fue grabado en un mega estudio o en la casa de un amigo de la banda.

Hablando de youtubbers, sí, es totalmente ridículo adorar a alguien que lo único que hace es prender una camarita y hablar frente a ella, puedo admirar a alguien que le ha hecho una buena producción a su video, tanto en el guion, como en la imagen y el sonido, pero no adorarlo, eso sería realmente ridículo, porque como vos dijiste, son personas normales, como vos, como yo, como Jesús el que está ahí. Sobre criticarlos porque lucran con lo que hacen, mm, primero y principal, ¿está mal ganar dinero por algo en lo que te esforzás?, segundo, no ganan tanto, lo que te puede dar YouTube puede llegar a ser muy poco, el propio sistema impide que sea mucho, para cobrar un “sueldo” subiendo videos a YouTube, primero tenés que hacerles ganar mucha plata a ellos, entonces ellos te dan un pequeña parte de lo que ellos ganaron en “agradecimiento”, y eso solamente si tus videos tienen millones de visitas, por menos de eso, el cheque que te llega de Google ni vale la pena levantarse de la cama para hacer otro video, sin duda alguna muchos lo hacen porque les gusta. Por otro lado, algo que si te da, es una fanbase, es decir, gente que te sigue, y que acepta tus consejos, o adopta tus modas o modismos, y eso tiene valor para otras empresas, el product placement, tus fanáticos usarán aquello que usas, y les gustará aquello que a ti te gusta, o por lo menos las cosas que recomiendas en tus videos, siempre pueden estar siendo pagados para decir o mostrar tal cosa, aunque quienes son honestos con la gente que los sigue, si bien aceptan el dinero de la empresa les ofrece con intenciones publicitarias, suelen hacerlo con cosas que realmente les gusta, así que no están mintiendo, solo están viviendo de lo que les gusta hacer, lo mismo que los músicos, si no podés vender tu música, ganar derechos de autor por ella, ni vender entradas a tus recitales, ¿de qué vivís? Grabar un disco cuesta muchísimo dinero, ¿vas a gastar esa suma cada año, o cada año y medio para no ganar nada a cambio? Algunos si lo hacen, sus bandas son tan pequeñas que tienen que moverse de barrio en barrio tocando donde sea para vender una remera o un CD, para poder comprar la nafta para ir al siguiente barrio. Y eso no los hace ni más ni menos artistas. Así como tampoco ganar millones con su música hace menos artistas a otros, podés decir que no te gusta, y exponer las razones del por qué no, seguramente comparándolos con lo que si te gusta, pero están viviendo de su música, mm, si, algunos tienen fama injustificada, o al menos, injusta, algunos son productos creados intencionalmente para provocar fanatismo y lucrar con eso, pero otros han llegado a donde están con esfuerzo, y siendo músicos de verdad, sin importar que tan mal toquen, si encuentran gente a la que le gusta lo que tocan, ya está, ya tienen fans, y ya pueden vivir de eso.

Sobre guitarristas, el propio Kurt Cobain, y esto es algo que he dicho muchas veces, y tambien mucha gente ya lo sabe, él dijo “prefiero ser el peor de los mejores y no el mejor de los peores”. Y si, no vas encontrar complejidad melódica, ni armónica en las composiciones de Nirvana, pero algunas cosas, y lo digo por experiencia propia, si tienen cierta complejidad rítmica, no mucha, pero puede resultar complejo, si ya pasaste esa etapa, tocar y cantar al mismo tiempo las canciones de Kurt no es difícil, pero más allá de eso sin duda alguna la parte más destacada de su música está en las letras, en su opinión o en lo que expresan, aun cuando al leerlas puede que no encuentres aquello que te gusta encontrar en una letra, tenés que ubicar en que ámbito fueron escritas, que sentimientos expresan, sin duda alguna se puede decir que fue un adulto interesante por tener una infancia complicada. E incluso sabiéndolo puede no gustarte su música, por ser tan diferente a lo que te gusta, en lo personal si he escuchado Nirvana en una época de mi vida, pero lo dejé al poco tiempo al encontrar cosas que me iban gustando más, y al aprender a disfrutar de ciertas complejidades, algo que no todo el mundo puede llegar a hacer, a algunos les gustan las cosas sencillas. En cuanto Guns n Roses, Slash, y Axl Rose, considero que si bien puede agradar a la misma clase de público a la que le gusta Nirvana, Bon Jovi y AC/DC, sí tienen una mayor complejidad musical que la que tiene Nirvana, aunque no tanto como Deep Purple, y podríamos estar nombrando bandas todo el día, pero quiero hacer énfasis, en que hay gente que no nota mayores diferencias entre Guns n Roses, Bon Jovi, Nirvana AC/DC y Led Zeppelin, encuentran diferencias pero las minorizan, en cambio para nosotros son bandas totalmente diferentes que no se parecen en nada, y si bien yo no creo en los géneros musicales, creo que la música es música, es decir, si suena bien está bien, y la gente suele englobar a las bandas que recién mencioné dentro de lo que llaman Hard Rock, para mí, de la forma en como yo, mi mente, o mis oídos perciben la música, podría clasificar a cada una de ellas en géneros musicales totalmente diferentes uno del otro, porque las diferencias que percibo son mayores, tanto como para necesitar otro sistema de clasificación, si es que estuviera preocupado por catalogar a la música que escucho para que todo tenga un orden de sucesión y un nombre basado en como suenan y sus diferencias con otros.

Entonces, hay gente con oídos menos exigentes que otros, que solo porque lo que escuchan se parece en una o dos cosas, ya las ubican como de la misma familia o rama del rock, cuando nosotros, por la forma en la que escuchamos la música, notamos esos cientos de detalles con nos hace sentirlas como lo suficientemente diferente para negarnos a aceptar que tienen una raíz común. Y no vamos a hablar de la evolución del rock, porque hay algunos fanáticos dispuestos a discutir fervientemente para defender aquello en lo que creen, pero me ha tocado en el pasado, descubrir que lo creen viene de una revista o libro que leyeron cuando eran adolescentes, si, de una sola fuente, ninguna opinión puede estar más cercana a la realidad que otras si está basada en una sola fuente, hay que obtener mucha más información de muchas fuentes diferentes, para contrastar y sopesar todo conocimiento que adquiramos y formar con ello una opinión que podríamos defender ante alguien que posea los mismos conocimientos que nosotros pero que haya formado una opinión diferente a la nuestra. Por eso no me interesa clasificar la música bajo un sistema de géneros ni discutir sobre ello para ver cuál clasificación es más acertada que otras. Tratándose de música, quiero escucharla, y disfrutarla, aunque en mi caso disfrutarla podría ser debatir con mis amigos sobre determinadas decisiones en la composición, grabación, edición, mezcla y masterización, o sobre el significado de las letras, porque me gusta conversar con gente que tiene diferentes opiniones a las mías, eso me obliga a activar mi cerebro para defender mis posturas, y esos procesos mentales pueden llegar a demostrarme a mí mismo que estaba equivocado en lo que creía, y terminar dándole la razón a mi amigo, o aún mejor, llegar a una conclusión que contradiga a ambas posturas, la de mi amigo y la mía antes de llegar a esa conclusión, eso es algo que personalmente disfruto mucho. Pero entiendo que puede haber mucha gente a la que eso le parezca una ridícula pérdida de tiempo y de esfuerzo, y que eligen vivir sus gustos a través de la pasión más que a través de la razón. Y la pasión es inexplicable, como dije antes, con un acceso directo a la mente y al pasado de esa persona si podría terminar explicando su pasión, pero eso no cambiará el hecho de que su pasión sea totalmente irrazonable, es decir, que por mucho que razone con él no va a cambiar su pasión, porque proviene de algo más profundo que la razón, de hecho puede haberla heredado de sus padres, ¿y cómo cambiar aquello que una persona ha creído durante la totalidad de su vida? Una tarea demasiado complicada para una sola persona, una sola opinión, y una sola razón, si en algún momento de su vida fuera a cambiar por algo que sea todo lo contrario a lo que ahora le gusta, será por haber adquirido muchos conocimientos nuevos, por haber hablado con muchas personas diferentes con diferentes opiniones, y por haber leído muchas fuentes diferentes que lo lleven a razonar su propio fanatismo, encontrar las razones del mismo, y encontrar que estaba equivocado y reemplazarlo por una nueva pasión que sea más adecuada a la persona en la que se ha convertido. No todo el mundo es capaz de un proceso semejante, es más, diría que la mayoría sería incapaz de hacerlo durante lo que dura una vida.

Si te gusta lo que lees considera contribuir con este blog para que el mismo pueda tener más y mejor contenido. Contribuir.

Licencia Creative Commons
Esta obra de Juan Pablo Castañeda está bajo una Licencia Creative Commons Atribución 3.0 Unported.

Detalles a tener en cuenta para el sonido de bandas en vivo

(Tan solo algunos consejos para los no iniciados en el tema)

Lo que llamamos sonido consiste de, la persona que lo maneja, y su equipamiento, que son, mixer/scrossoverspotencias y bafles (puede ser un sistema separado en grupo de agudos, y grupo de graves, más monitores de escenario, o sistemas más complejos con separación de agudosmedios y graves, más diferentes grupos de monitoreo para cada miembro de la banda). El mismo también debería proveer los micrófonos, con sus respectivos cables (o inalámbricos), hay músicos que prefieren usar un tipo de micrófono en particular (cantantes: Shure SM58 Beta 58, guitarristas: Shure SM57 para microfonear su amplificador), pero la gran mayoría ni se preocupa por eso, solo les importa tocar y que “el del sonido” se encargue de que suene bien.

Lo mínimo que lleva un músico a un evento, es su propio instrumento, o varios en algunos casos (hay guitarristas que tocan con tres o más guitarras diferentes a lo largo de su show). En el caso de las guitarras y bajos eléctricos, estos requieren de amplificadores específicos para guitarra y bajo, hay músicos que enchufan su instrumento a lo que haya sobre el escenario, otros prefieren viajar con su propio amplificador, porque, además de sus efectos (pedales y/o racks), el “ampli” es tan parte de sus sonido como su instrumento. Los bajos, además, al igual que las guitarras “electro-acústicas” (o “electro-criollas” en caso de cuerdas de nylon) y teclados, pueden ser conectados directamente a la mesa de mezclas (consola/mixer) del sistema de sonido. Guitarras criollas, clásicas, flamencas, acústicas, y la gran mayoría de los instrumentos acústicos (pianos, violines, saxos y otros vientos, instrumentos de percusión, etc.) deben ser microfoneados, lo cual es responsabilidad de la persona que maneja el sonido, por lo tanto se le debe informar de los “requisitos de microfoneado” (cantidad de miembros de las bandas y los instrumentos que tocan) para que vaya preparado con el equipo necesario. En el caso de amplificadores de guitarras y bajos eléctricos, existen músicos que prefieren monitorear su señal directamente de estos, cuando son de tamaño “pequeño” o “mediano” son microfoneados para obtener la señal que llega al público, el músico se escucha a si mismo por su amplificador o a través de los monitores de escenario. Hay quien viaja con amplificadores de los que llamaremos “de gran tamaño” (alta potencia), el sonido de estos puede llegar directamente al público, sin necesidad de microfoneado, aunque se los puede microfonear a pedido del músico y combinar el sonido directo de estos con el que llega a la mesa de mezclas a través de los micrófonos.

El gran dilema siempre en un evento en el que participan bandas, es la batería, por empezar las cualidades acústicas de este instrumento hacen que produzcan sonido de gran volumen, aun así, pueden requerir de microfoneado dependiendo de las características del lugar donde se toca, el otro problema que suele presentar este instrumento es su gran tamaño y dificultad para transportarlo. Nuevamente, siempre hay músicos que prefieren tocar con sus propios instrumentos, pero hay muchos bateristas que se limitan a viajar solamente con sus platos, fierros (soportes para platillos) y baquetas (palillos), o escobillas, o varillas, dependiendo del género musical. La solución es que una de las bandas participantes ofrezca su batería para que quede armada fija en el escenario (y ya microfoneada, si así se requiere), para que sea utilizada por los diferentes bateristas que participen en el evento, los cuales agregarán sus fierros y platos, y acomodarán estos y las otras partes de la batería a su forma particular de tocar. La otra posibilidad es alquilar una batería para tal fin (ya afinada, para ahorrar tiempo). Si se opta por usar el “método” de batería fija (la mejor opción solamente si la mayor parte de las agrupaciones participantes usan este instrumento), debería haber fierros extras disponibles para aquellos bateristas que solo viajen con sus platos.

En el caso de que el lugar donde se realice el evento conste con sonido propio, se deben coordinar todas estas cosas con la persona encargada del mismo, algunas bandas (casi ninguna, pero se puede dar) viajan con su propia “persona de sonido”, que ya conoce sus temas y sabe la mezcla apropiada para cada uno de ellos, o la mezcla general de toda la banda para sonar en vivo.

Puede pasar que el hecho de que cada banda suene bien, dependa de la buena comunicación, la buena onda, y el buen trato con la persona encargada del sonido. Si el músico sabe lo que quiere y como pedirlo, esta persona puede ayudarlo a obtenerlo con su experiencia y conocimiento, mediante la mezcla, y con sus equipos, si el músico no maneja el “lenguaje” que esta persona utiliza, es mejor que lo deje hacer su trabajo, y que no lo irrite con peticiones molestas, irrazonables, o inentendibles, después de todo, él conoce el equipamiento con el que trabaja, y en el mejor de los casos, también conoce el lugar y la “acústica” del mismo.

Lista de canales para sonido en vivo

Canal Instrumento Micrófono Efectos
01 Bombo Beta 52 Gate/Comp
02 Redoblante SM57 Gate/Comp
03 Hi-Hat SM81
04 Tom 1 Beta 98/Beta 56 Gate
05 Tom 2 Beta 98/Beta 56 Gate
06 Tom 3 Beta 98/Beta 56 Gate
07 Overhead L SM81
08 Overhead R SM81
09 Bajo DI Comp
10 Guitarra eléctrica SM57 Comp
11 Guitarra acústica DI Comp
12 Vocalista Beta 58 Comp
13 Coro 1 SM58 Comp
14 Coro 2 SM58 Comp
15 Teclado L LINE
16 Teclado R LINE

Gate: Compuerta de ruidos
Comp: Compresión

Detalles

Estos son los datos para una banda promedio, con batería, bajo, guitarra eléctrica, guitarra acústica, un cantante, un teclado, y que dos de sus miembros hacen coros. Para una banda con este formato se necesita como mínimo una consola mezcladora de audio de 16 canales.

Todos los micrófonos que aparecen en la lista son marca Shure, pero el del sonido puede decidir qué tipo de micrófonos usar para cada instrumento, si condensadores o dinámicos, o que marca y modelo usar dentro de los que disponga o los que considere adecuados.

La batería en este caso se encuentra totalmente microfoneada, aunque el encargado del sonido puede decidir prescindir de algunos micrófonos o agregar más. En este caso se usó un único Shure SM57 para el redoblante, pero una configuración habitual es usar dos, uno para la parte de arriba y otro para la parte de abajo. El tom 1 sería el tom agudo, el 2 el medio, y el 3 el grave, también llamado tom de piso o chancha, aunque la lista recomienda usar Beta 98 o Beta 56 para ellos, también pueden usarse SM57. Los overhead son micrófonos que van por encima de la batería y pueden ser ubicados en dos configuraciones, la primera para registrar el sonido de los platos (el hi-hat, los splash, los crash, los china, y los ride) para lo cual, en este caso, se usan dos mics, uno para los de la izquierda (L) y otro para los de la derecha (R). La otra configuración común de los overhead es obtener una imagen estéreo del sonido global de la batería. Para esta tarea se suelen utilizar condensadores de tipo cilíndrico (tanto en vivo como en estudio) o condensadores de diafragma grande (utilizados con mayor frecuencia solo en estudio debido a su gran sensibilidad al sonido).

El bajo y la guitarra acústica están pasados a la consola de mezclas a través de cajas directas (DI), aparatos diseñados para “estabilizar” la señal (eliminar voltajes e interferencias no deseadas) de estos instrumentos, aunque también pueden ser conectadas directamente por línea (LINE) a la consola, lo que significa conectarlos directamente por cable, pero por la impedancia de estos instrumentos, especialmente del bajo, se suele usar siempre DI para su conexión.

El amplificador de la guitarra eléctrica está microfoneado con un Shure SM57.

La señal del teclado es estéreo (L y R) y va directamente por línea a la consola.

Si alguna banda no trae sus propios amplificadores para tocar, deberá haber algunos disponibles para ellos sobre el escenario, los cuales pueden ser alquilados por el tiempo que dure el evento.

Dependiendo de la cantidad de guitarristas que tenga la banda se necesitará un amplificador de guitarra eléctrica para cada uno de ellos, es recomendable que tengan una potencia de entre 40 y 100 watts, dependiendo de las características y tamaño del lugar donde se toque, a mayor cantidad de público es necesaria más potencia. Si el bajista también necesita amplificador, por lo general usan amplis cuya potencia puede ser de entre 100 a 400 watts o más, pero si la señal del bajo será enviada a la consola de mezclas por línea o por DI, puede no hacer falta un amplificador para este instrumento, el bajista se escucha a sí mismo a través de los monitores de escenario, a menos que solicite uno porque le es más cómodo monitorear su sonido y controlar su ecualización a través de un ampli, en ese caso se puede usar uno cuya potencia puede ser incluso inferior a los 100 watts pero es esencial que disponga de salida directa balanceada tipo canon (XLR) para conectarlo por cable a la consola de mezclas.

Algunas recomendaciones de amplificadores para sonido en vivo

Transistorizados:
Peavey TransTube (cualquier modelo de entre 40 y 120 watts)
Marshall MG (cualquier modelo de entre 50 a 100 watts)

Híbridos:
Marshall Valvestate I (cualquier modelo de entre 40 y 80 watts)
Marshall Valvestate II (cualquier modelo entre 65 y 100 watts)
Marshall AVT (cualquier modelo de entre 50 y 150 watts)

Nacionales:
Roller (cualquier modelo entre 50 y 150 watts)
Nativo (cualquier modelo entre 45 y 100 watts)
Wenstone (cualquier modelo entre 50 y 160 watts)
ElectroVox (cualquier modelo entre 40 y 100 watts)

Para bajo se puede usar cualquier amplificador de las marcas anteriormente mencionadas cuya potencia sea de entre un mínimo de 60 watts a un máximo de 500 watts (entre 100 y 400 recomendado), con salida de línea balanceada.

Otras marcas de amplificadores que se pueden tener en cuenta son Hartke, Crate y Laney.

Si te gusta lo que lees considera contribuir con este blog para que el mismo pueda tener más y mejor contenido. Contribuir.

Licencia Creative Commons
Esta obra de Juan Pablo Castañeda está bajo una Licencia Creative Commons Atribución 3.0 Unported.

Ocho indicadores de que has finalizado tu mezcla

Una de las cosas más difíciles de decidir cuando estás trabajando en un proyecto es, cuando la mezcla está terminada. Si tienes fecha de entrega, la decisión es fácil de tomar, pero si dispones de un amplio presupuesto o tiempo ilimitado, una mezcla puede hacerse eterna.

Entonces, ¿cuando una mezcla se puede considerar terminada? Aquí hay algunos consejos cortesía de The Mixing Engineer’s Handbook:

1) El groove de la canción es sólido. El groove usualmente viene de la sección rítmica (bajo y batería), pero puede provenir de otro elemento, como una guitarra rítmica (ejemplo: Every Breath You Take de The Police) o tan solo del bajo por si mismo. Cualquier elemento que contribuya al groove debe ser enfatizado, así, quien lo escuche, podrá sentirlo.

2) Puedes distinguir cada instrumento. Cada instrumento debe tener su propio rango de frecuencias en las que será oído. Dependiendo de los arreglos, esto es lo que usualmente toma mayor cantidad de tiempo durante la mezcla.

3) Cada parte de la letra, cada nota de cada verso o solo es audible. No quieres sepultar ni una de las notas. Todo tiene que ser claro como el cristal. Usa la automatización. Para eso fue inventada.

4) La mezcla tiene punch. La relación entre el bajo y la bacteria está adecuadamente proporcionada y ambos trabajan bien juntos para darle a la canción cimientos solidos.

5) La mezcla tiene un punto de enfoque. ¿Cuál es el elemento más importante de la canción? Asegurate de que sea obvio para el oyente.

6) La mezcla tiene contraste. Si tienes la misma cantidad del mismo efecto en todo (algo que se encuentra a menudo en mezclas de novatos), la mezcla sonará “lavada”. Tienes que tener contraste entre los diferentes elementos, de “seco” a “mojado”, para darle a la mezcla profundidad. (Nota de la traducción: dry (seco) hace referencia al sonido no “afectado”, o sea al que no se le ha aplicado ningún efecto, también se puede decir “señal limpia”, wet (mojado), por lo tanto, es lo contario, una señal muy “afectada”, aquel sonido que presenta gran cantidad de uno o varios efectos, de estás dos se puede deducir que washed out (lavado) se refiere al abuso del mismo (u otros) efecto(s) en todas las pistas de la canción).

7) Todos los ruidos, errores y sonidos indeseados han sido eliminados. Esto significa cualquier “cuenta”, respiración fuera de lugar del cantante o predominante debido a la compresión, ruido de amplificador en las pistas de guitarra antes y después de que la guitarra suene, ediciones que suenan mal, y todo lo demás que pueda alejar la atención de nuestros oyentes sobre la canción. (N de la T: count-off se refiere a la “cuenta de cuatro” (aunque dependiendo del tiempo de la canción puede ser otra la cuenta) ya sea vocal o por sticking, rim shot, hi-hat, cronometro, etc.)

8) Tu mezcla se compara a otras que te gustan. Tal vez la prueba definitiva. Si puedes llevar tu mezcla a la misma categoría que muchos de tus favoritos (ya sean canciones que tu hayas mezclado o de otros artistas) después de haber superado los siete puntos anteriores, entonces probablemente ya puedas volver a casa tranquilo.

Contenido extraído del blog “The Big Picture” de Bobby Owsinski, traducido y adaptado al castellano por Juan Pablo Castañeda.

Texto original en: http://bobbyowsinski.blogspot.com/2012/04/8-indicators-that-your-mix-is-finished.html#ixzz1rp2z1eVD
Bajo Licencia Creative Commons: Atribución

Breve historia de la computación moderna

Con moderna me refiero a cuando todo esto empezó a tener verdadero sentido, o sea, el sentido que le damos ahora cuando hablamos de informática, y si bien las palabras difieren en su significado, ya que computación hace referencia al calculo en su sentido matemático mas estricto e informática se refiere al tratamiento automatizado de la información a través de computadoras, hablo del origen de lo que hoy llamamos tecnologías de la información.

Dos hombres son sin duda alguna los pilares fundamentales de la computación moderna, Ken Thompson y Dennis Ritchie. Thompson es conocido por su trabajo con el lenguaje de programación B, basado principalmente en el lenguaje BCPL usado durante el proyecto MULTICS, donde empezaron a nacer algunas de las ideas de lo que posteriormente fue Unix. Ritchie creó el lenguaje de programación C, absolutamente necesario para todo lo que vino después ya que aún hoy en día, la mayoría de las tareas que involucran a la programación se hacen usando este lenguaje o alguno de sus derivados, y junto con Thompson y gracias a C, crearon el sistema operativo Unix.

Hay otro nombre que debo mencionar y acá la historia se divide en dos, se trata de Gary Kildall, creador del sistema operativo CP/M, el cual años mas tarde fue copiado por Seatle Computer Inc renombrándolo QD-DOS, luego comprado por Microsoft, reescrito totalmente, y llamándolo MS-DOS fue el sistema que le ofrecieron a IBM para sus nuevas computadoras IBM-PC.

El hecho es que Gary tubo muchos logros importantes en la historia de las computadoras, los cuales fueron opacados cuando empresas mas grandes, o con un mejor departamento de marketing las adoptaron como propias. El primer sistema operativo con interfase gráfica (un shell para CP/M conocido como GEM) también se le atribuye a Gary Kildall, pero cuando ingenieros de Xerox estuvieron experimentando con esta nueva tecnología y el uso del mouse para manejar la interfase gráfica, los directivos de esa compañía lo consideraron algo completamente sin uso, así que durante una visita a sus laboratorios de gente de Apple, tuvieron la oportunidad de regalar esta investigación a Apple dando inicio a la generación de los primeros sistemas operativos con interfase gráfica. Ideas mas tarde implementadas por Microsoft en su Windows, y derivando en lo que casi lleva a Apple a la ruina.

Volviendo al lado bueno de la historia, Thompson y Ritchie (entre otros) crean el sistema operativo Unix, uno de los mejores de la historia, y esto empieza a tener repercusiones, aparecen cosas como el sistema de ventanas X-Window (sin s al final), y las terminales dummy, computadoras que se conectaban por red a otra con los programas y una instancia de estos se ejecutaba en la terminal a petición, si, aunque no lo crean, este concepto es muy muy antiguo, de hecho el sistema operativo MULTICS del cual, durante su desarrollo empezó a nacer lo que después seria Unix, planteaba una forma muy interesante de computo, que era la interacción de varias computadoras como una sola, así pequeñas terminales con poco poder de proceso podían unirse para formar una súper computadora capaz de resolver problemas mas complejos con mayor velocidad. En la actualidad Andrew Tanenbaum cree que esta forma de computo es la mejor para el futuro, creando para este propósito su sistema Amoeba (se pronuncia amiba y es el inglés para ameba), un sistema operativo moderno que opera de la misma forma en que lo iba a hacer el proyecto MULTICS, que nunca salio a la luz por las deficiencias de la tecnología de la época en la que se lo pretendió realizar.

Estos conceptos supusieron una verdadera revolución informática, que lamentablemente fue conocida en su época por muy pocos estudiosos embebidos en el tema, así fue como la universidad de Berkley comenzó a crear su propia implementación de un sistema Unix, naciendo lo que hoy se conoce como BSD o Berkley Software Distribution. Muchos supusieron que este sistema operativo mas los procesadores SPARC que iba a crear la empresa Sun MicroSystems iban a ser el futuro de la computación.

Y así lo creía también Andrew Tanembaun, un profesor de computación en la Vrije Universiteit de Amsterdam, que cuando la licencia para usar el sistema operativo Unix se vuelve mas rígida, prohibiendo leer su código fuente, se queda sin poder enseñar la parte práctica de como programar un sistema operativo desde cero, por lo cual decide crear él mismo su propio sistema operativo, pero mucho mas pequeño, tan solo para poder enseñar a sus alumnos a programar los componentes básicos de un sistema operativo, al cual llamo, por su tamaño, Minix, al estar basado en Unix pero estar pensado para enseñar programación.

Por aquel entonces lo que hoy conocemos como internet estaba muy inmadura aún, pero aún así había formas de intercomunicarse globalmente entre computadoras, una de ellas eran las listas de correo, discusiones interminables por mail de las cuales todos los días recibías una copia en tu casilla de correo, pero había una red muy particular que combinaba un poco esto de las listas de correo con lo que se conocía por entonces como BBS (Bulletin Board System), esta red se llamaba Usenet, y en ella participaban entre muchos otros Andrew Tanembaum y un jovencito finlandés llamado Linus Torvalds, quien después de participar en varias discusiones en las cuales Tanembaum se negaba a convertir a Minix en un sistema operativo mas grande, ya que de ese modo se perdería el foco de la razón por la que fue creado, decide publicar un muy buen día que él iba a crear su propio núcleo de sistema operativo, y así nació lo que hoy es conocido como Linux.

Algunos años antes Richard Stallman, desilusionado del rumbo que llevaba la informática con todo esto de las licencias que prohibían a otros programadores leer el código fuente de programas y sistemas operativos, decidió, crear su propio sistema operativo, bajo una filosofía que llama Software Libre, la cual permitía a cualquiera leer el código, modificarlo, redistribuirlo modificado o sin modificar, dando copias a sus vecinos o amigos del código modificado o sin modificar, y hasta vender el código modificado si así lo deseaba, explicando todo esto en una licencia de software conocida como GNU GPL (General Public Licence), actualmente en su versión 3, la cual crea un nuevo concepto diferente al del copyright, conocido como copyleft, y para difundir todos estos nuevos conceptos crea la Free Software Foundation, la cual ahora es su principal y única actividad recorriendo el mundo dando conferencias explicando esta filosofía.

El sistema operativo de Stallman, llamado GNU por la sigla recursiva GNU Not Unix, algo que la comunidad del software libre adopto como tradición, estaba casi completo, pero le faltaba algo fundamental, el núcleo, o kernel, aquel componente que se comunica directamente con el BIOS de la computadora y hace que todo funcione. Es así como uniendo la creación de Torvalds con la creación de Stallman nace el sistema operativo conocido como GNU/Linux (GNU con Linux). Al menos hasta que el núcleo desarrollado por el Proyecto GNU, llamado Mach, y Hurd (su sistema de servidores) estuvieran lo suficientemente maduros como para liberar una distribución estable del sistema.

Esto supuso otra revolución, y muchos programadores empezaron a volcarse a este sistema, creando así un sin fin de distribuciones GNU/Linux con muchas características diferentes, el hecho de poder leer el código fuente y modificarlo, hizo posible la creación de comunidades de programadores interesados en modificar alguno de los programas del sistema o este en su totalidad, para algún determinado propósito o por alguna meta en común, pero con el tiempo, y especialmente por la ambigüedad que las palabras Free Software tienen en ingles, fueron perdiendo la filosofía de la cual todo esto nació, cuando Stallman dijo Free, se refería a libertad (free as in freedom), y no a gratis (free as in free beer). Perdiendo la mayoría de los programadores que se dedican al mundo Linux, la noción de las cuatro libertades fundamentales que enumera Stallman en la GNU GPL, y hasta muchos desconociéndolas aún hoy en día.

Por motivos “comerciales” como, el convencer a una empresa establecida de pasarse al Free Software, muchos empezaron a llamar al concepto, Open Source (código abierto) ya que estas palabras causaban a las empresas mucho menos miedo del que les causaba la palabra Free. Pero este nuevo concepto solo habla de la posibilidad de leer el código fuente de los programas sin mencionar las otras libertades que según Stallman cada individuo debe tener sobre el software que utiliza. Es así como con el uso diario, los sistemas operativos Linux pierden dos cosas, el GNU al principio de su nombre, y el conocimiento de cualquiera que lo use de las libertades que supone el usar una computadora que funciona basada en esta filosofía.

El usar Linux para referirse al sistema operativo es completamente incorrecto, sería como seguir diciéndole DOS a Windows, o decirle NT a Windows hoy en la actualidad, algo totalmente impensable, y es que cuando Windows nace fue pensando nada mas que como un shell para el DOS, es decir, una interfase gráfica que enmascara todos los procesos que suceden por debajo de la misma. En si, todos, o la mayoría de los programas que vienen con cualquier distribución Linux, pertenecen al sistema operativo GNU, Linux es una parte importante del sistema, ya que sin él nada andaría, pero lo mismo pasaría de tener solamente Linux en una computadora, sin ninguna parte del proyecto GNU, simplemente, no se comportaría como un sistema operativo, sino mas bien como algo vagamente entendible para los seres humanos. Por lo tanto la denominación GNU con Linux es la más correcta para definir a cualquier distribución Linux.

Mas allá aún, existen otros sistemas operativos, que no usan el núcleo Linux, pero si usan muchos programas o casi todos los de GNU, como lo hacen otros sistemas basados en Unix o en BSD, como FreeBSD, OpenBSD, NetBSD y Solaris. De hecho una de los componentes fundamentales de cualquier distribución Linux o cualquiera de lo sistemas operativos basados en Unix o en BSD que acabo de mencionar, es el entorno de escritorio conocido como Gnome, que vendría a ser la interfase gráfica que todos estos sistemas operativos comparten, Gnome es parte de GNU.

Habiendo aclarado todo lo anterior, ahora si podemos volver a la parte fea de la historia, Kildall crea al abuelito del DOS, y al abuelito del sistema operativo de la Apple Lisa, y de las Apple MacIntosh, así como al abuelito de lo que hoy conocemos como Windows. Fue así que SCI le robó a Kildall, Microsoft le robo a SCI y le vendió como propio a IBM el DOS, en realidad se lo licenció, lo que significa que Microsoft sigue siendo el dueño pero que por cada PC que IBM vendiera con DOS instalado le correspondía un porcentaje a Microsoft. Por otro lado Xerox le roba a Kildall, y Apple le roba a Xerox, de ahí vino la Apple Lisa, y las primeras MacIntosh, sucesoras de las Apple I y II. Pero al final, Microsoft le termina robando a Apple para crear lo que llamaron Windows. Llevando a Apple a la ruina casi total por cuestiones de marketing. De hecho, el CP/M de Kildall era mucho mejor que el DOS de Microsoft, y hasta eran compatibles, es decir, lo programas de uno funcionaban en el otro, pero Microsoft ya poseía todo el mercado de las IBM PC y sus clones compatibles, y aún cuando Kildall cambió el nombre del CP/M por el de DR-DOS no pudo contra Microsoft que empezaba a ser el monstruo que hoy conocemos. Algo parecido pasó en la relación entre Microsoft y Apple, gente de Microsoft visitaba las oficinas de Apple ya que ambas compañías tenían un contrato para que Microsoft creara software para las computadoras Apple, es decir, el negocio de Gates siempre fue el software, dejando a otros fabricar las computadoras, mientras que Apple se dedicaba a ambas cosas, fabricar computadoras y su software. De este intercambio entre las compañías, nació dentro de Microsoft lo que hoy se conoce como Windows, copiando detalles de la interfase gráfica, y hasta herramientas como el bloc de notas, la calculadora, el paint y hasta el reloj. Pero, el día del gran anuncio de Apple, cuando habían gastado millones en publicidad, y estaban por lanzar sus nuevas computadoras, ya había en el mercado mundial, miles de computadoras con el sistema operativo de Microsoft. Se ve en la película Silicon Valley una escena que me impactó la primera vez que la vi, Steve Jobs siempre fue una persona muy interesada por la estética y la belleza, filosofía que aplicaba también en sus computadoras, a nivel hardware y software, cuando Jobs se da cuenta de la traición de Gates, le dice a este, nosotros somos mejores, a lo que Gates responde, ¿todavia no lo entiendes? Eso no importa. La lección mas importante que aprendió Jobs en toda su vida, no importa quien sea mejor, importa quien llega primero, quien logra convencer a las personas que son los mejores aunque no lo sean, o que son la única opción.

Mas tarde Jobs es echado de Apple y funda su propia compañía, NEXT, creando casi por si solo una nueva mini-revolución, la compañía responsable de las computadoras NEXTstation y el sistema operativo NEXTstep. Basandose en Unix como el núcleo de su sistema operativo y volcando en estas computadoras las ideas que él tenía sobre interfases gráficas de sistemas operativos, creó un montón de ideas que hoy para muchos suenan muy familiares, como el dock de aplicaciones, los menús de aplicaciones en una sola barra de todo el sistema y muchas otras cosas mas como detalles en los iconos, en las ventanas y hasta en la forma de buscar y encontrar archivos. Lo curioso es que visualmente, mas no en características y funcionalidades, este sistema era muy similar a lo que hoy conocemos como Windows 95 o Windows NT, pero ahí ya no se quien copio a quien, ni me animo a especularlo. En fin, una computadora NEXTstation fue uno de los primeros servidores de internet completamente operacionales funcionando con todos los conceptos que hoy tenemos sobre internet y sus servidores. Esto entre otros muchos logros individuales de Jobs, supuso su reincorporación a Apple. Trayendo consigo todo su bagaje de ideas. Entre ellas, el iPod.

Jobs empieza a trabajar encabezando el diseño de las nuevas computadoras Mac de Apple, vuelca en su sistema operativo características de Unix y de NEXTstep, creando lo que hoy conocemos como Mac OS X. La revolución en reproducción personal de musica que significó el iPod, fue para Apple una increíble recuperación económica, Jobs empieza a dar conferencias sobre su nuevo sistema operativo y sus ventajas. Pero en realidad, lo que había creado Jobs, no era una nueva computadora, o un nuevo sistema operativo, todas las ideas estaban ahí de antes, era lo mismo que ya había hecho tantas veces, lo único que era diferente, era su estrategia de marketing, como vender toda esa tecnología que había creado hace años de manera que una persona se convenza de que era su mejor opción. Pero, mas allá de todo eso, había creado un concepto completamente único y nuevo, una estrategia muy a largo plazo que debía aplicarse día a día, convertir a sus inventos, como el iPod, el iPhone, el iPad y las Macs, en meramente y nada más que un instrumento, sí, nuestros equipos son hermosos estéticamente hablando, tienen un sistema operativo con una interfase gráfica muy llamativa, y pagás miles por comprarlos, pero, cada vez que comprás uno, estás adquiriendo eso que hará que continuamente por el resto del tiempo que sigas usándolo tengas que comprarnos a nosotros, comprarnos la música, los vídeos, las películas, los programas y todo lo que quieras poner en ellos. Es decir que Apple no produce artefactos con tecnologías innovadoras que cambian la vida de sus usuarios, sino que crea instrumentos por los cuales atar a sus usuarios a lo que realmente ellos venden, que es todo lo demás que solo puedes adquirir en sus tiendas.

Pero lo mas llamativo de todo, y que muchos usuarios pasan por alto con respecto a las Macs, es que hace tiempo, estas eran totalmente incompatibles con las PC y con el sistema operativo Windows, mas que nada porque los procesadores que usaban eran los Motorola PowerPC y no los Intel o cualquiera derivado de la tecnología de Intel. Este concepto puede ser muy ajeno a personas no relacionadas con la programación, pero cada procesador tiene su propia arquitectura interna, y su código de instrucciones mínimas con las tareas más básicas, como operaciones matemáticas simples o las instrucciones para leer o escribir en determinada dirección de memoria, la suma de muchísimas de estas tareas sencillas en pocos milisegundos, son las que despliegan esos resultados que después vemos en la pantalla, pero para que llegue a nuestro monitor, esa información tiene que pasar del CPU (CPU no es el gabinete de una computadora es su procesador) al BIOS, del BIOS al núcleo del sistema operativo, del sistema operativo a la interfase gráfica del mismo, y esta debe activar las opciones gráficas que permiten que el resultado sea dibujado en pantalla, por ejemplo, en un entorno Windows básico el encargado de dibujar en la pantalla sería DirectDraw, uno de los componentes de DirectX. Cuando programamos, lo hacemos usando un lenguaje de programación parecido al lenguaje natural (escrito) pero con estructuras más rígidas que no permiten lugar a ambigüedades, para convertir ese código (que es texto) a un archivo capaz de ser ejecutado por un sistema operativo, se necesita de un compilador, este convertirá ese código a lenguaje ensamblador, y a continuación a lenguaje maquina, objeto, o binario, los pasos son varios y pueden variar, pero la idea es que dos computadoras con el mismo procesador, y sistemas operativos diferentes darán como resultado un ejecutable diferente, y dos computadoras con diferente procesador y sistema operativo diferente darán como resultados archivos ejecutables completamente diferentes y completamente incompatibles, y aún si el sistema operativo fuera el mismo, el resultado seguiría siendo diferente.

Ahora las Apple Mac usan no solo procesadores Intel, sino también arquitectura Intel en toda su placa madre, tanto así, que usan los mismos procesadores, las mismas memorias, los mismos discos rígidos, las mismas compacteras y los mismos puertos USB que las PC. Es decir que solo son diferentes a una PC en software, mas no en hardware, y si bien este software puede ser más estable y mas seguro que Windows, lo es por estar basado en Unix, que ya desde la base siempre fue un buen sistema operativo, así que los sistemas operativos GNU/Linux, también basados en Unix, ofrecen similares o mejores características en cuanto a estabilidad y seguridad. Y cuando digo estabilidad, me refiero a que no se cuelgan, tildan, o como sea que ustedes digan, al menos no tan seguido como Windows, y tanto GNU/Linux como Mac OS X no son tan estables como los pintan, tienen menos cuelgues que Windows eso es verdad, pero también hay que considerar un factor imposible de ignorar, que es la masividad, durante años Windows, Intel y las PC IBM compatibles dominaron el mercado de tal manera que muchos llegaron a pensar que era lo único que existía, y que Bill Gates era el inventor de la computadoras. Esta masividad, es lo que hace a Windows vulnerable e inestable por dos aspectos, el primero, el desconocimiento de los usuarios de qué tareas llevan inevitablemente a un cuelgue, y esto le puede pasar a cualquier computadora, es decir, no podés pedirle que divida por cero, o meterla en un bucle infinito de iteración recursiva, lo que diferencia a un sistema operativo de otro, es como este reacciona ante el error, a Windows por lo general le cuesta volver a su funcionamiento normal después de un error, otros sistemas operativos, tienen programado como reaccionar ante los errores para que estos no afecten la funcionalidad del sistema operativo, tanto que hasta algunos de los usuarios nunca se enteran cuando un error sucedió. La otra vulnerabilidad que genera la masividad, son los virus, GNU/Linux y Mac OS X están casi libres de estas amenazas, eso no quiere decir que no existan virus para esas plataformas, por lo general puede pasar dos cosas, quien programa virus suele ser alguien que esta aprendiendo a programar, rara vez un profesional de la programación se dedica a crear un virus, a menos que sea para una actividad delictiva mayor, o por alguna razón mas transcendental como ideología o filosofía. Los programadores envueltos en GNU/Linux, tienen toda la libertad de leer tanto código fuente como quieran, la mayoría no siente la necesidad de crear un virus para probar sus conocimientos o los de los otros, o para aprender alguna tarea determinada al escribir ese código malicioso, por lo tanto, si te gusta GNU/Linux, y te gusta programar o querés aprender a hacerlo, seguramente estarás en alguna comunidad de programadores que se comunica a través de un foro, y programando aplicaciones reales para el sistema operativo que en verdad sean útiles en lugar de crear software para hacer daño, es parte de la filosofía que involucra ser parte de GNU/Linux. En cuanto a Mac OS X, programar para esta plataforma es caro, es muy raro que alguien que no esté interesado en vender en la App Store sus aplicaciones o juegos adquiera un kit de desarrollo y una licencia de Apple, ya que una vez que aprendas a programar para esta plataforma vas a querer una retribución por todo el dinero que invertiste, sin embargo, como siempre, hay alternativas gratuitas, o menos caras, pero casi siempre implican violar la ley, si hacés eso en una plataforma Apple significa que no tenés amor por la misma, es decir, te interesan sus productos pero no estás dispuesto a pagar por ellos, es algo bastante contradictorio. En fin, Windows lleva tantos años y tantas computadoras en todo el mundo usan este sistema operativo, que es extremadamente fácil para cualquier niño, adolescente o adulto, empezar a programar para esta plataforma ya sea que adquiera los programas necesarios por medios legales o ilegales, es indiferente, y en el proceso de aprendizaje muchos incurrirán en la infracción de crear un software malicioso, llámese virus, troyano, spyware, addware o lo que sea.

Por la misma razón, por la masividad, las cuentas de Hotmail y de Facebook son las mas “hackeadas” en todo el mundo, y más que nada debido a la inexperiencia de sus usuarios, los cuales pueden caer fácilmente en infinidad de trampas para que gente maliciosa obtenga sus contraseñas y robe sus cuentas. En realidad lo que ustedes se imaginan como hacking, no existe, nadie se pone a correr un programita en su casa, que prueba mil claves por segundo hasta descifrar la contraseña de Facebook de su vecina. Nadie se pone a atravesar diez firewalls y obtener una contraseña que le permita acceder a un servidor de Hotmail como administrador para ver si su compañera de escuela tiene fotos desnuda en su correo. Nadie hace eso, porque es imposible de hacer, y si alguien lo intenta hacer no va a hacerlo por esos motivos, sino mas bien, por algo como Wikileaks, algo transcendental, importante y que valga la pena.

Otro detalle que Stallman siempre recalca, es el uso completamente erróneo de las palabras pirata y piratería, las libertades de las que habla la licencia de software de Stallman se refieren a un tema totalmente ético y hasta filosófico se podría decir y no a algo que tenga que ver con la informática o la computación, se trata de el derecho que como individuo tengo de compartir mi software con mi vecino, y que no se me trate como criminal por eso, para que eso suceda deben desaparecer la licencias privativas que prohíben ejercer mi total derecho y libertad de darle una copia de mi software a mi vecino. Stallman siempre dice que la piratería es algo muy malo, que atacar barcos para robarlos y secuestrar o matar personas durante el proceso es algo terriblemente malo. Y no así el compartir software, así que no se le debe llamar pirata a alguien que no ha atacado ni robado ningún barco ni tampoco ha secuestrado o matado gente para hacerlo. El planteamiento ético de Stallman es el siguiente, cuando yo adquiero un programa privativo el cual me dice que no puedo hacer una copia para mi amigo, la empresa que creo ese programa y esa licencia me esta obligando a no compartir con el mundo, con mi comunidad, con mi vecino, mi hermano, mi amigo, aquello que adquirí y por lo cual pagué, Stallman considera que atenta contra su ética el no poder compartir su software. El asunto es que desde el punto de vista de la mayoría de los seres humanos, el software se vende, y tenés que pagar por cada copia, si no lo querés pagar, lo obtenés de manera ilegal, lo cual significa que querés adquirir ese software sin pagar por él, pero ese es precisamente el dilema ético, si compro software y no se lo presto a mi amigo, estoy dentro del marco de la ley, pero estoy siendo un mal amigo, si adquiero software de manera ilegal y le hago una copia a mi amigo, quedo bien con mi amigo pero estoy violando la ley, no es ético que la imposición de las licencias privativas de software sea decidir entre violar la ley y ser un buen amigo, esto es porque de por si, la mera existencia de esa licencia es ilegal, y atenta contra las libertades individuales. Si yo soy un desarrollador de software, y quiero compartir el software que creo con mi comunidad, con todo el mundo si quiero, tengo la libertad de hacerlo, pero debo darle a quien use mi software la libertad de leer el código por el cual lo creé, sin importar si yo cobro por mi software o lo doy gratis, la libertad de leer como un programa fue creado es un factor fundamental, primero, por el aspecto educativo, el derecho que tengo a saber como funcionan las cosas, porque hacen lo que hacen, y aprender a hacer lo mismo, y segundo para saber si ese código no contiene ninguna función maliciosa que pueda perjudicarme en un futuro. Bien sabido es que Windows, lleva un control de como su software es usado por los usuarios, esto es ilegal, y atenta contra la privacidad, además de las posibles actividades delictivas en las que podrían estar envueltas el uso de mi información, pero como yo no tengo el derecho de leer el código fuente de Windows o de los programas que los componen, no puedo saber que tanta información este sistema guarda sobre mi y envía a Microsoft cada vez que me conecto a Internet. Esta información podría estar siendo usada por razones estadísticas pero no es el hecho, tengo el derecho a saber quien tiene mi información como la usa y por que la tiene, y solicitar que cesen toda actividad que recaude información sobre mi y la manera en que uso mi software así como un resarcimiento económico por los daños y perjuicios que me puede haber ocasionado el uso de esa información por personas ajenas a mí a las cuales no permití tener ni conocer esa información.

El detalle mas claro está en que tanto Windows como Mac OS X se actualizan solos y a través de internet, y aún cuando me soliciten autorización para descargar o instalar actualizaciones al final es algo inevitable que debo aceptar para continuar con el correcto funcionamiento del sistema, esto implica que, si estos sistemas no poseen características maliciosas, ¿como puedo saber yo si tales características no serán agregadas en alguna actualización futura?, la única forma sería acceder de manera libre al código por el cual fue creado. Pero no todas las personas saben programar, aún así puedo pedirle a un programador que verifique el código por mí, para ver si encuentra características maliciosas o no, y puedo pagarle por esa activad o no, eso depende del programador ya que en la filosofía del Free Software, free significa libre, y no gratis.

Las libertades de las que siempre habla Stallman son cuatro, y el siempre las enumera del cero al tres (muy al estilo programador, como el índice de los arreglos en lenguaje C). La libertad cero es la libertad de usar el software como quiera, la libertad uno es la libertad de poder leer y estudiar el código del software para saber como funciona cuando quiera y modificarlo en parte o en su totalidad para mejorarlo, corregirlo, o agregarle las funcionalidades que quiera, la libertad dos es la libertad de distribuir copias del software original sin modificar a quien quiera cuando quiera, y la libertad tres es la libertad de distribuir copias de mis versiones modificadas del software a terceros, por las cuales puedo cobrar o no, eso es a elección del programador, aún si el software del cual estas copias derivan era gratuito. Estas cuatro libertades son algo totalmente fundamentales en dos ámbitos muy importantes de toda sociedad, la educación, y el gobierno. Las instituciones educativas deberían si o si usar software libre, es la única filosofía de software que se corresponde con los ideales de la educación, y el uso de software privativo en la educación crea dependencia en los usuarios que nunca aprenden a lidiar con otras tecnologías, en las escuelas publicas enseñan Microsoft, ensañan Windows, no enseñan informática, no enseñan computación. Esto crea adultos que no van a saber usar otra cosa que no sea lo que aprendieron a usar cuando fueron educados, y hasta muchos desconocerán las alternativas libres y gratuitas que tienen ante el software privativo. Y en el caso de los gobiernos es totalmente esencial que el software libre sea el único que usen todas sus computadoras, siendo esta la única manera de que todos sus datos sensibles estén seguros y no puedan ser accedidos a distancia por individuos o corporaciones malintencionadas.

Otro detalle más que interesante en el software libre es la corrección de errores, el hecho de que el código sea libre y abierto permite a miles, sino millones de programadores en todo el mundo leerlo, encontrar errores, corregirlos, y agregar nuevas características que mejoren ese software. Esta es una de las libertades de las que habla Stallman que un individuo no programador no puede ejercer, pero puede ejercerla a través de un tercero, pagándole a un programador para que agregue al software una característica o funcionalidad que al usuario le interese, o uniéndose a una comunidad de programadores, que trabaje con ese software, y a través de un foro, mail, redes sociales, u otros medios, pedirle a los programadores que añadan al software esa característica que le interesa.

Esto nunca podría suceder con el software privativo, ya que su sola existencia, y la de sus licencias prohibiría cualquier actividad parecida a esta. Haciendo que el único capaz de modificar el software como se le antoje sea el desarrollador o la empresa que lo desarrolló, de esta manera la corrección de errores menores y el agregado de nuevas características y funcionalidades pueden diferir mucho de lo que un usuario espera de ese software, así como demorarse tiempos terriblemente irrisorios, sin olvidar el hecho de que también pueden quitarle al software una de las características que más nos gustaba sin previo aviso. Es decir, el software privativo, es una tiranía.

Resumiendo lo hoy repasado, suena muchísimo mas sensato, comprar una PC por 2000 pesos, e instalarle un sistema operativo gratuito que posee todas las características ya mencionadas, a pagar casi 20000 pesos por un hardware de casi las mismas características que la PC, pero con un sistema operativo que me obliga a comprarle de por vida a una única empresa, la cual revisa y controla cada pieza de software que yo quiera sumarle a mi sistema.

El uso de productos Apple no es mas que el reflejo de un estatus social, pagás un precio extremadamente inflado, por un producto que ofrece las mismas funcionalidades o características que otros que son gratis o mucho mas baratos, simplemente por el hecho de tener una mejor estética, y la posición social que te da tener un aparato de esas característica, esa estética y ese precio. Pagando tanto por él es obvio que vas a estar completamente convencido de que es bueno o que es mejor que otros. Pero básicamente la estrategia de empresas como estas, es la de crear fanáticos, embajadores de la marca como los llaman ellos, personas que defienden con uñas y dientes sus productos favoritos, aún sin tener razón en sus alegatos, desconociendo completamente la historia de como esos productos llegaron a ser lo que son ahora, y aún más, negando ciegamente que ese producto los convierte en esclavos de un sistema que los utiliza nada mas que como unidades de producción de lo que estas empresas consideran que es su único dios, el dinero.

Si te gusta lo que lees considera contribuir con este blog para que el mismo pueda tener más y mejor contenido. Contribuir.

Licencia Creative Commons
Esta obra de Juan Pablo Castañeda está bajo una Licencia Creative Commons Atribución 3.0 Unported.