¿Por qué no una Mac?

Introducción a nociones básicas del funcionamiento de computadoras modernas y guía de compras para principiantes

Se me pidió que redactara un texto capaz de enseñarle a alguien las diferencias entre Notebooks para Gamers de Asus o MSI comparadas con Notebooks de Apple y por qué sería mejor comprar las primeras en lugar de las segundas a pesar de la supuesta eficiencia y estabilidad del sistema operativo de Apple, más la estética de sus productos y la calidad de sus componentes.

Llamamos Laptop a toda aquella computadora que es posible usarla sobre la “falda” (lap en inglés), es decir sobre las piernas. Dentro de ellas se suele diferenciar entre dos grandes tipos, si la pantalla es de 9 a 13 pulgadas, se las llama Netbooks, más que nada porque su poder es inferior a las más grandes y están pensadas para navegar y usar aplicaciones web más que para usar aplicaciones nativas de la plataforma o sistema operativo en que este basada. De 14 pulgadas en adelante, siendo las más grandes de entre 17 y 23 pulgadas, se las llama Notebooks. Existen Ultrabooks de 13 pulgadas, pero las Ultrabooks siguen la filosofía de las MacBook Air, que no son más que una Netbook glorificada. Las Chromebooks son computadoras de baja potencia y bajo costo que vienen con un sistema operativo de Google llamado Chrome OS, que no es más que un Google Chrome que ejecuta aplicaciones web en lugar de aplicaciones almacenadas en los medios de la computadora, si bien algunas de ellas tienen la capacidad de funcionar off-line, dependen de la tienda de aplicaciones Google Play, y no encontraremos software profesional para esta plataforma y aunque los hubiera dependerían de la velocidad de nuestra conexión a internet.

La potencia de una computadora va ligada a la capacidad que la misma tiene para procesar información, esto es, cuantas tareas puede realizar al mismo tiempo, y que tan rápido puede hacerlas.

Lo primero que debemos analizar para deducir estos factores es el procesador, cuyo nombre correcto es CPU (Central Processing Unit), así es, CPU no es una carcasa o gabinete de computadora sino el procesador de la misma, el término se viene usando mal en Argentina desde hace años. Actualmente a esas “Processing Units” que hay dentro de un CPU se las llama núcleos (core en inglés) cada núcleo es un procesador en si, por lo tanto a mayor cantidad de núcleos mayor cantidad de procesos simultáneos, la velocidad de los núcleos se mide en GHz (Giga Hertz), en el mundo de las computadoras un Hertz es un ciclo por segundo, y sería el tiempo que tarda un pulso eléctrico en recorrer un circuito del núcleo, a una vuelta entera por el circuito se la llama ciclo, esto pasa continuamente dentro del procesador cada un intervalo regular que se conoce como “clock speed” (velocidad de reloj), estos ciclos son el reloj interno de los procesadores que le dicen a qué ritmo funcionar, por lo tanto 1 GHz serían 1000 MHz (Mega Hertz), o lo que es lo mismo, mil millones de ciclos por segundo.

Dependiendo del software que utilicemos, cada uno podrá hacer mejor o peor uso de un procesador multinúcleo, si el software está optimizado para hacer uso de esta cualidad, la tarea que el software le pide al procesador será ejecutada más rápido, ya que se reparte equitativamente entre todos los núcleos disponibles, pero si el software carece de esta optimización la tarea será realizada por uno solo de los núcleos, o dos a lo sumo. Tareas sencillas como el uso de un navegador como Chrome, pueden ejecutarse sin inconvenientes en un solo núcleo, pero los procesos de renderizado de imágenes (Adobe Photoshop) o de video (Adobe Premiere) se ven claramente acelerados cuando el procesador posee 4 núcleos o más.

Existen dos marcas de procesadores actualmente dominando el mercado en esta área, AMD e Intel. Los procesadores AMD suelen consumir más energía (electricidad en watts) y liberar mayor cantidad de energía calórica (que en los procesadores tambien se mide en watts) en el proceso (el movimiento de electrones dentro de un circuito siempre provocará perdida de energía calórica, cuanto más pequeños sean los componentes y mayor cantidad de ellos haya en menos espacio, mayor será el calor que liberen). Los núcleos en los procesadores AMD suelen ser menos potentes comparados con los núcleos de Intel, pero a cambio se pueden comprar procesadores de 6 u 8 núcleos por un precio muy inferior al de los procesadores Intel Core i7 más caros, que durante la tercera generación de esta familia de procesadores solo llegaron a tener un máximo de 4 núcleos, 6 durante la cuarta generación pero doblando el precio de los de 4 núcleos, y 8 núcleos en la quinta generación doblando el precio de los de 6 núcleos. A cambio Intel desarrolló una tecnología llamada Hyper Threading, que se podría llamar “capacidad multi-hilos” permitiéndole a cada núcleo manejar casi simultáneamente dos hilos de procesos, lo que en teoría elevaría la cantidad de núcleos del procesador, por cada núcleo real o físico, habría dos hilos por lo tanto al segundo hilo se lo puede considerar un núcleo virtual, en un Core i7 de 4 núcleos con Hyper Threading podemos decir que hay 8 núcleos, 4 reales y 4 virtuales. En la práctica los “núcleos virtuales” no se comparan en performance a los reales y siempre será mejor tener más núcleos reales con Hyper Threading que menos núcleos sin Hyper Threading.

Cuando el software que intentamos usar no está optimizado para hacer uso de todos los núcleos disponibles y así acelerar el tiempo en el cual sus procesos terminan de realizar cada una de sus tareas independientes, es el sistema operativo el que debe encargarse de distribuir los procesos entre cada núcleo libre disponible. Por lo tanto, podría utilizar tranquilamente un programa optimizado para ejecutarse en dos núcleos, más otros dos programas sin optimización ejecutándose cada uno en los dos núcleos restantes disponibles de un procesador de 4 núcleos, aunque en realidad, cada núcleo es capaz de manejar varios programas a la vez, esto nos da una idea de cómo este paralelismo de procesos multinúcleos puede mejorar la performance de un sistema acelerando la velocidad de los procesos gracias a la optimización que el sistema operativo posea para tal fin.

Actualmente el mejor procesador Intel Core i5 del mercado es el 4690, posee cuatro núcleos, pero como todos los i5 carece de Hyper Threading. Los mejores i7 que se pueden comprar hoy en día (omitiendo los de 6 y 8 nucleos) son el 3770 (de tercera generación) y 4770 (de cuarta generación) ambos con 4 núcleos y Hyper Threading. En Estados Unidos ya están disponibles cuatro modelos de Core i7 de quinta generación, pero estos funcionan bajo la plataforma Intel X99 (sería la forma de fabricar placas madres compatibles con esos procesadores) la cual usa memoria DDR4 (actualmente en el país y durante un par de años más el consumidor normal seguirá usando memoria DRR3). Para laptops Intel fabrica versiones reducidas de sus procesadores que consumen mucha menos electricidad y de esa manera ahorran batería. Los modelos Intel para laptops suelen tener una letra M (por mobile) luego del número de modelo, un procesador tipo M siempre será menos potente que el mismo modelo en su versión no M (es decir, desktop, o más claro, para computadoras de escritorio). Pueden aparecer otras letras luego del número de modelo de un procesador Intel, las más comunes son la K, que indica que dicho procesador es “oveclockable”, es decir que se le puede cambiar parámetros internos del “reloj de ciclos” del procesador para incrementar su velocidad, a cambio de lo cual tambien aumentará su temperatura y necesitará de un sistema de enfriamiento adecuado para alargar su vida útil. Otras letras frecuentes son la X, que indica que se trata de una versión “Extrema” generalmente tope de gama de la generación y suele incluir mayor cantidad de núcleos o mayor velocidad por núcleo que los no X. Y por último la Q que suele ser asignada a “rediseños” de un procesador existente al que se le han quitado determinadas características o bajado la velocidad de reloj para disminuir su consumo eléctrico o destinarlo a un sector de consumo más económico donde los rangos de precios son más bajos.

Estos “sectores de consumo” se encuentran bien diferenciados. Entry Level es el nivel más bajo, componentes diseñados para simplemente funcionar y a los que no se les puede pedir mucho más que eso, obviamente por esa razón es el segmento de menor precio. Consumer, es el usuario promedio, el cual requiere mayor capacidad de proceso que un Entry Level pero generalmente terminará usando aplicaciones utilitarias (Word, Excel, etc.). Prosumer, se trata del segmento destinado e los “semi-profesionales” o a consumidores normales pero con intereses profesionales, quienes suelen requerir un poco más de potencia pero no tanta. Enthusiast, se trata del segmento destinado a aquellos que su uso de las computadoras se podría comparar con el que “tunea” un coche, es decir que este tipo de usuario elegirá cada uno de sus componentes según las tareas que se proponga realizar, los componentes de esta gama suelen ser más caros y más potentes que la de todas las anteriores, y este tipo de usuarios generalmente se dedica a tareas de productividad, como son el uso de software de edición de imágenes, audio y video. El sector “Professional” comparte las características de los sectores Prosummer y Enthusiast, pero abarca diferentes niveles de profesionales los cuales pueden terminar usando componentes de otros sectores como Enterprise, Gaming, Workstations y Servers. El segmento Enterprise se caracteriza por la durabilidad de los componentes, lo que se busca es la eficiencia, por lo general son productos que permanecerán encendidos las 24 horas, y de los cuales se comprará gran cantidad por lo tanto se requiere bajo costo y gran durabilidad, se desechan características estéticas o de potencia para reducir los costos a cambio de aumentar la durabilidad, lo cual a veces se puede pagar más caro que el resto de todos los otros segmentos. Gaming, en este segmento los usuarios buscan potencia y elegancia, es decir que se suele pagar más por un producto que luce bien, aunque el “gamer” puro solo buscará potencia sin importarle la apariencia, si bien este segmento presenta productos muy caros es sin duda alguna el único segmento que ofrece mayor potencia por menor cantidad de dinero ya que a los gamers se los considera enthusiasts o prosumers, por lo tanto los componentes que llevan esta etiqueta suelen ser del agrado de los usuarios de esos dos segmentos y no solo de gamers y las empresas son conscientes de eso por lo tanto orientan la relación calidad/precio a satisfacer esos tres sectores. Workstations, se trata del tipo de computadoras que suelen usar los verdaderos profesionales de áreas como el cine, la producción musical, modelado 3D, o científicos. Son los componentes más caros y más potentes que existen y también poseen buena durabilidad, muchas “estaciones de trabajo” suelen estar montadas durante años en un estudio y requieren que esa potencia no se degrade con los años, placas de video profesionales como las Nvidia Quadro y las AMD FirePro conectadas a múltiples monitores suele ser la característica más visible de los setups (configuraciones de hardware de computadoras) de este segmento. Servers, estas computadoras pueden estar destinadas a diferentes segmentos pero comparten una característica, las cantidades de datos que manejan son enormes, y deben ser procesados lo más rápido posible, se utilizan una enorme cantidad de componentes en configuraciones llamadas clusters, permanecen prendidas las 24 horas del día y sistemas enteros como páginas y aplicaciones webs dependen de ellos, por lo tanto no se pueden dar el lujo de apagarlos aun cuando necesiten mantenimiento, para lo cual suelen usarse unidades de backup (respaldo) que toman control de los servicios que se estén administrando mientras se realiza el mantenimiento necesario es las unidades principales, en muchos casos se requiere que algunos componentes sean “hot swapable” (capacidad de poder intercambiarlos sin apagar el sistema), generalmente discos rígidos y en menor medida aceleradores de procesamiento gráfico como los Nvidia Tesla o coprocesadores como el Intel Xeon Phi (con hasta 61 núcleos). Si bien es un segmento en el que siempre se busca abaratar los costos por la gran cantidad de componentes necesarios, suelen ser los componentes más caros de todo el mercado, pero los de mayor durabilidad y potencia.

El mundo de las laptops también está segmentado por tipo de consumidores, pero las más potentes de cada marca suelen ser de la línea Gamer. Dentro de este segmento dos marcas pueden citarse como las más innovadores, potentes, confiables y durables de todo el mercado MSI y Asus. Ofreciendo notebooks con hasta 4 unidades SSD en RAID 0, doble placa de video Nvidia GTX y procesadores Intel i7 de cuatro núcleos con Hyper Threading. Sumado a pantallas que combinan mayores resoluciones con mejores tiempos de respuesta.

La velocidad en la que los monitores o pantallas realizan el “barrido” es decir el “cambio” o “refresco” de todos los pixeles de la pantalla se denomina “refresh rate” y se mide en Hz, cuando mayor sea esta frecuencia mejor es la respuesta de las pantallas a cambios rápidos en lo que se está visualizando, la mayoría de ellas usan la tecnología LCD aunque algunas suelen aparecer como LED, lo cual solo significa que estos paneles están retroiluminados con LED’s, facilitando la visibilidad en ambientes muy iluminados o a la luz del sol. Los paneles más rápidos son los de tipo TN, aunque suele considerase que representan los colores menos “acertadamente”, el ojo de un usuario normal no notaría la diferencia, para “corregir” ese detalle se inventaron los paneles con tecnología IPS los cuales poseen una mejor reproducción de los colores pero a cambio son más lentos que las pantallas TN, lo cual solo puede resultarle inconveniente a un hardcore gamer (jugador super-exigente), pero le vendrán mucho mejor a artistas, fotógrafos y cualquiera que trabaje con imágenes. Las resoluciones que actualmente deben tenerse en consideración son 1080p, 1440p y 4K. La resolución 1080p, también conocida como Full HD, FHD o BT.709, tiene una relación de aspecto de 16:9 (tipo ancho, o tipo cine) y cuenta con 1920×1080 pixeles, es decir que cada línea de horizontal de la pantalla está formada por 1920 puntos luminosos (pixeles) y cada línea vertical por 1080 pixeles. 1440p es una pantalla de tipo ancho con 2560×1440 pixeles. Y lo que se denomina 4K, Ultra HD o UHD, que es una resolución de 3840 x 2160 con relación de aspecto 16:9 o 17:8 casi cercana a la verdadera resolución de cine que es 4096 x 2160 en relación de aspecto 19:10 o 1:9:1. En esta época no tendría en consideración pantallas con resolución de 720p, que tienen una cantidad de pixeles de 1280×720 y se lo conoce como HD standard, porque resulta bastante inferior a los estándares actuales, ni tampoco otras resoluciones que fueran diferente a las anteriormente mencionadas ya que pueden provocar que lo que aparece en la pantalla adopte una apariencia “rara”, diferente a la que debería tener. Otro punto a considerar es la densidad de pixeles, es decir que en un monitor de 14 pulgadas con resolución de 1920×1080, los pixeles serán más pequeños, y la pantalla estará más “poblada” (mayor densidad de pixeles) que un monitor de la misma resolución (cantidad de pixeles) pero de 19 pulgadas, donde los pixeles serán considerablemente más grandes y al acercarnos lo suficiente podríamos diferenciar en donde empieza y donde termina cada pixel (menor población, o menor densidad). Lo que queremos es que siempre los pixeles sean lo más pequeños posible ya que la alta densidad siempre ofrecerá una mejor calidad de imagen, por lo tanto cuando más grande sea la pantalla (en pulgadas) mayor debe ser la resolución de la misma, para que los pixeles que la compongan sean más pequeños y por lo tanto la imagen tenga mayor densidad. Esto tambien depende de la distancia a la que la pantalla esté de nuestros ojos, a mayor distancia menos notoria será la baja densidad de pixeles de una pantalla, pero al irnos acercando la notaríamos más y más.

Otro factor que influye en la velocidad del sistema y por lo tanto en la calidad de la experiencia que tengamos con él, es la velocidad de las unidades de almacenamiento, si nuestro sistema operativo y la mayoría de nuestros programas se encuentran en una unidad lenta (un disco rígido de 5400rpm) será bastante notoria la lentitud con la que la totalidad del sistema opera, los discos recomendados son de 7200 RPM (revoluciones por minuto) o 10000 RPM, siendo estos últimos muchísimo más caros y menos frecuentes, la mejor alternativa para acelerar un sistema son las unidades SSD (Solid State Drive), llamados discos o unidades sólidas, o de estado sólido (una mala traducción del inglés, ya que solid state se refiere a que se trata de un dispositivo “transistorizado” o mejor dicho en este caso electrónico, compuesto por circuitos y chips) en contraposición con los discos rígidos que son mecánicos, magnéticos y eléctricos, las partes mecánicas de los discos los hacen muchísimo más lentos que las memorias de las computadoras, cuando decimos memorias nos referimos tanto a la RAM como a las de tipo flash (tarjetas de celulares o cámaras, y pendrives o unidades USB), los SSD son precisamente eso, memorias tipo flash, con controladores de alta velocidad y tipo de conexión SATA (Serial ATA, la misma que usan los discos rígidos), por lo tanto al usarlos para reemplazar a los discos rígidos las velocidades de lectura y escritura escalan a números muy superiores que los puede entregar un disco rígido. Las unidades SSD no poseen piezas móviles ni partes mecánicas, son totalmente electrónicas, la desventaja con ellas es la relación entre precio y capacidad, se pueden conseguir discos rígidos de 3TB por 100 dólares, mientras que con ese dinero tendremos que conformarnos con un SSD de 128 o 256 GB, dependiendo de marca y modelo, aun así todos son muchísimo más rápidos que un rígido y la mejora en velocidad total del sistema es inmediatamente notoria ni bien migramos de una tecnología a la otra. Precisamente por su baja capacidad de almacenamiento se usan generalmente para almacenar únicamente el sistema operativo y los programas más usados, usando para todo lo demás (imágenes, audio y video) discos rígidos. Aun así la mejora en velocidad es tal que al acostumbrarse a usar SSD nadie quiere volver a usar discos rígidos.

El siguiente factor a considerar es la memoria RAM, actualmente usamos del tipo DDR3, y las velocidades mínimas recomendadas son entre 1600 y 1866 Mhz, mayor memoria RAM nos dará la capacidad de ejecutar una mayor cantidad de programas simultáneamente, cuando damos la orden a la computadora de ejecutar algún software el CPU lee la información del disco rígido (o SSD) y la copia a la memoria RAM, que es donde se ejecutará el código de ese programa, la RAM es mucho más rápida que los discos rígidos en incluso que los SSD, así que este proceso de leer del disco, escribir en la RAM, ejecutar la tarea, y borrar de la RAM, sucede cada vez que ejecutamos algo, y de hecho casi todo el tiempo en que los programas abiertos estén realizando tareas, por lo tanto un SSD nos dará una velocidad de lectura mayor, lo que permitirá poblar la RAM más rápido, pero la mayor cantidad de los procesos que el CPU realice con los datos del programa serán hechos en la RAM y no en el disco rígido o SSD, eso incluye imágenes, audio y video, cuando más RAM tengamos más grande podrán ser los archivos con los que trabajemos o podremos trabajar con mayor cantidad de archivos al mismo tiempo. Por otro lado mucha RAM pero lenta no nos serviría de mucho, por lo tanto tambien debemos considerar ese factor, el cual es determinado por dos característica “clock speed” de la RAM medida en Hz, y CL (CAS Latency) que es el tiempo de demora y se mide en ms (milisegundos), generalmente aparecen en los datos de la RAM como CL9 para indicar 9ms o CL10 para indicar 10ms y así. A mayor velocidad de reloj mayor será la latencia, y eso incidirá en el precio, memorias de 2400Mhz con latencia 11 serán más baratas que memorias de la misma frecuencia pero con latencia 10, las cuales serán mucho más rápidas y por eso el precio abultado. A los 1600Mhz podemos encontrar latencias que van de 7 a 11 y en los 1866 latencias entre 8 y 13, un módulo de memoria con frecuencia alta como por ejemplo 2400Mhz pero con latencia tambien muy alta puede llegar a ofrecer la misma performance que una de 1600Mhz o 1866Mhz con una latencia muy baja, detalle a tener en cuenta a la hora de comprar. Por otro lado tanto el procesador como la motherboard (placa madre, o placa base) tienen en sus especificaciones técnicas una serie de frecuencias de memoria soportadas, si el procesador es capaz de controlar memorias de hasta 1600Mhz, ponerle al sistema una memoria más rápida que eso será considerado overclocking, por lo tanto la calidad de construcción y características de la placa madre serán el detalle más importante al usar esta configuración de memoria, ya que cuando mejor sea la mother se podrá encargar directamente de esos detalles con mínima o ninguna intervención por parte del usuario, recomiendo altamente el uso de placas madres Asus, ya que nunca en todos mis años de trabajar con computadoras he tenido problemas con ellas, y lo mismo aseguran muchos otros profesionales que las eligen a la hora de procurar estabilidad a sus sistemas. Por supuesto otras marcas de mothers como MSI, Gigabyte, EVGA o Asrock, pueden tener las mismas características que una Asus, pero siempre me inclinado a pensar que Asus ofrece la mejor calidad de componentes en sus placas madres de todo el mercado, lo cual impacta directamente con su durabilidad, estabilidad, y confiabilidad, de hecho hasta la más barata ofrece un mínimo de 5 años de garantía, más que cualquier otra marca en ese segmento de precios, en lo personal solo usaría placas Asrocks en sistemas cuyo principal fin sea ahorrar dinero, si bien no es una mala marca, definitivamente sus componentes son más baratos comparados con los de las otras marcas mencionadas.

En placas de video tenemos dos marcas que son las mayores fabricantes de GPU’s (Graphics Processing Units), AMD y Nvidia, parecido a la relación entre los CPU AMD e Intel, las placas gráficas basadas en chipsets (reglas de fabricación de circuitos para, en este caso, cada modelo de GPU o procesador gráfico) de AMD suelen consumir mayor energía eléctrica y liberar más calor, pero ofrecer mayor potencia de proceso a un menor costo monetario, cada marca presenta diferentes tecnologías de procesamiento gráfico, el más destacado de Nvidia en la actualidad es CUDA, se trata de una plataforma de computación paralela (como cuando hablábamos de procesadores multinúcleos) y modelo de programación, los programas que implementen esta tecnología pueden sacar más mejor provecho de placas Nvidia que de las AMD, como por ejemplo Adobe Premiere (editor de video), pero sin duda alguna lo más interesante de los procesadores CUDA de Nvidia es la capacidad de poder ser usadas para cualquier tarea computacional, y no solo las de tratamiento gráfico o de imagen, lamentablemente en el mundo del audio y la producción musical no existen muchas implementaciones optimizadas para funcionar en los núcleos CUDA de los procesadores gráficos de Nivida. AMD posee un tecnología denominada Mantle, que ofrece acceso de bajo nivel (eso significa acceso directo a los componentes de la tarjeta gráfica sin pasar por intermediarios como las API del sistema operativo) permitiendo mayores velocidades de trabajo y menores latencias a quienes hagan uso de esta tecnología, lamentablemente en la actualidad solo se ha implementado en juegos y no en software de productividad. Ambas marcas son capaces de usar tecnologías como DirectX, OpenGL y OpenCL, las dos primeras API’s (Application Program Interface) gráficas, utilizadas para presentar toda clase de gráficos en pantalla, pueden utilizarse para imágenes, videos, interfaces graficas de usuario, 3D, juegos, y todo lo que sea “dibujado” con pixeles en la pantalla, DirectX tambien ofrece extensiones de audio por lo cual es muy utilizado en la creación de juegos, pero nada impide que sea utilizado tambien para otros tipos de software. OpenGL y OpenCL son estándares abiertos, lo cual significa que una comunidad de programadores tiene libre acceso al código de los mismos y cualquier fabricante puede implementar estas tecnologías en sus productos, tambien cualquier persona tiene acceso a la comunidad que mantiene y actualiza esas tecnologías, por lo tanto se puede participar en su desarrollo si uno tiene conocimientos de programación. OpenGL es una API gráfica, y se usa principalmente para casi todo lo que se usa DirectX con la diferencia de que al ser abierto no hace falta pagar ni pedir permisos para utilizarla, algo similar pasa con OpenCL, aunque esa tecnología está más orientada al renderizado de gráficos en 2D y 3D. Las placas gráficas Nvidia suelen mostrar mejor performance en aplicaciones DirectX que las placas AMD, pero las placas AMD suelen obtener resultados muchísimo mejores en OpenCL que las Nvidia, superándolas 2 o 3 veces en la capacidad de procesamiento de esta tecnología. Por otro lado, los software de tratamiento de imágenes y video que ofrecen la posibilidad de renderizar por OpenCL tambien permiten hacerlo por CUDA si hay una placa Nvidia disponible, y en la mayoría de los casos los resultados de CUDA superan ampliamente a los de OpenCL. Así que debemos saber que tecnologías usan los programas y juegos que más usamos o usaremos, para saber qué tipo de placa gráfica conviene más a nuestras necesidades.

En el segmento Entry Level tenemos la línea GT de Nvidia, en los segmentos Consummer, Prosummer, Gamer y Enthusiast, Nvidia ofrece los modelos GTX de sus placas de video, mientras que para Workstations y servidores ofrece las Quadro y las Tesla. AMD ofrece las Radeon modelo R7 y R9 pasando por precios que van desde Entry Level a Enthusiast y diferentes modelos de FirePro para profesionales usuarios de Workstation o Servers.

Todas las marcas de notebooks poseen gama baja, media y alta, pero la gama “gamer” es totalmente aparte, y ofrecen siempre la mayor potencia, incluso más que otras marcas que dicen tener nivel “workstation”, que es básicamente lo que se dice de cualquier computadora Apple (iMac, Mac Pro, Mac Mini, MacBook, MacBook Pro y MacBook Air), se suele decir que los componentes internos de toda la línea Mac tienen nivel de Workstation y/o “nivel enterprise” lo cual no es cierto, internamente la calidad de los componentes es igual o tal vez un poco inferior a la de cualquier PC armada con componentes de marcas como Asus (placa madre), Intel (procesador), Kingston/Corsair (memoria RAM), Western Digital (discos rígidos) y Corsair/Kingston (SSD), en esta última categoría los que ofrecen mayor velocidad, confiabilidad y durabilidad son las líneas EVO y PRO de Samsung y la línea Neutron GTX de Corsair. Aunque la mayoría de los SSD son buenos (Corsair, Kingston, Adata, Crucial, Plextor, Mushkin, etc.) cada uno puede ofrecer velocidades de lectura y escritura diferentes, y los que vienen de fábrica con las Mac suelen ser más lentos que los disponibles en el mercado. Más allá de eso, cualquier cosa que haya adentro de una Mac salió de las mismas fábricas chinas de las que sale cualquier componente que se use en el armado de PC’s. Cada marca ejerce diferentes controles de calidad y tiene diferentes políticas, y en mi experiencia si bien el control de calidad hecho por Apple suele ser bastante exigente no lo es tanto como el de Asus, sin mencionar que los componentes (chips, integrados, transistores, diodos, resistencias, capacitores, inductores y las propias placas de pertinax) suelen ser más “baratos” que los que les exigen marcas como Asus y Corsair a las MISMAS fábricas.

La gran diferencia es nada más que estética, la MacBook Air por ejemplo tiene cuerpo de aluminio macizo cavado, es decir que no se usa un molde, sino que se talla (por decirlo de alguna manera) la forma de la MacBook Air. Esto infla bastante el precio, pero todo producto Apple agrega un “plus” que representa la forma en la que la gente ve a sus productos y a la marca, es decir que la mayor cantidad del precio de una Mac es valor agregado (estética, packaging, branding y lo que representan ante el imaginario colectivo), y no las características del producto en sí mismo.

Un núcleo es un procesador, o sea que cuando decimos procesador de cuatro núcleos estamos hablando de cuatro procesadores en uno. Siempre recomiendo usar procesadores de 4 núcleos o más, la mayoría de los programas y sistemas operativos actuales son capaces de paralelismo, es decir, el uso de más de un núcleo cuando la aplicación que se esté ejecutando no haya sido optimizada para ello. La diferencia entre un i5 de cuatro núcleos y un i7 de cuatro núcleos, es que el i7 tiene una tecnología llamada Hyper Threading que le permite usar cada núcleo para dos “hilos de procesos” simultáneos, básicamente es como tener un núcleo virtual extra por cada núcleo real, o sea 8 núcleos en total, 4 reales y 4 virtuales. El paralelismo es lo mejor a la hora de usar programas que requieran de muchos recursos y muchos procesos (lo que llamamos programas pesados). Mayor cantidad de núcleos de menor velocidad darán mayor velocidad de procesamiento en programas optimizados para usarlos, al contrario, los mismos programas se verán bastante ralentizados si la cantidad de núcleos es poca aunque la velocidad de los mismos sea alta, aunque procesos mononúcleo si mostrarían una mejoría de su performance en este escenario.

Los usuarios de PC estamos acostumbrados a poder intercambiar cada una de las partes fundamentales (placa madre, procesador, memoria RAM, placa de video, unidades de almacenamiento, fuente de alimentación, etc.) una a una cuando necesitamos una mayor potencia de proceso, mayor capacidad o velocidad de medios de almacenamiento o de la RAM, mayor potencia gráfica, o un cambio de plataforma (lo que dictamina que clase de procesador y memoria podemos usar).

Las Macs siempre se han caracterizado por ofrecer menos posibilidades en este departamento. Si bien la anterior versión de la Mac Pro permitía cambiar, actualizar o mejorar (como le quieran decir) algunos de sus componentes, el modelo actual solo permite cambiar RAM y unidad SSD (a través de un puerto mSATA PCIe) no permite cambiar la placa de video ni aumentar la cantidad de placas de video, siendo el máximo dos, cuando anteriormente era cuatro como la mayoría de las PC cuyas placas madres permiten configuraciones SLI (Nvidia) y/o Crossfire (AMD). Los usuarios de Mac aseguran que se pueden conectar cualquier clase de dispositivos a través de los puertos Thundervolt, una especie de reemplazo para USB y FireWire ideado por Intel, y capitalizado por Apple, pero que aún no ha logrado llamar la atención ni de profesionales ni de usuarios comunes, quienes solo han usado este puerto para unidades de almacenamiento externas como discos rígidos portátiles, aun cuando pueden usarse hasta para conectar placas de video y monitores, los cuales siguen utilizando conectores DVI, HDMI o DP (DisplayPort). Y si, en el futuro podrán conectarse placas de video a través un cable “tipo USB”. Aunque Thundervolt no es exclusividad de Apple y cualquier fabricante puede implementarlo, al día de hoy las placas madres de las marcas más renombradas ofreciendo este tipo de conectores (o puertos) pueden contarse con los dedos de una mano, por dos razones, primero la poca adopción tanto del público y por consecuencia de los fabricantes de productos tecnológicos, y segundo, el riesgo que representan. Los puertos Thundervolt proveen a dispositivos externos la capacidad de conectarse a puertos PCIe (PCI Express) internos de la computadora, los cuales a su vez se conectan directamente al procesador, y así es como ha nacido el peor virus de Mac y a su vez el peor virus de la historia. Cualquier dispositivo que use Thundervolt e incluso el propio cable puede modificarse para contener código que sea ejecutado directamente por el procesador de la computadora ignorando al sistema operativo, si bien esto puede ser algo bueno para los fabricantes de hardware que sean honestos, ese código podría ser malicioso (lo que comúnmente llamamos virus) y de hecho, ya se ha hecho, el virus afecta solo a Macs con puertos Thundervolt y al contagiarse no puede ser removido de la Mac ni formateando ni reinstalando el sistema operativo, ya que se encuentra en partes internas no accesibles por el usuario ni por el propio sistema operativo, de hecho, el virus se ejecuta incluso antes de que el sistema operativo pueda iniciar. Obviamente las posibilidades de contraerlo hoy en día son muy muy bajas, pero aun así es uno de los desastres de seguridad más grandes de la historia. Por otro lado existen muchos virus de Mac, todas pueden contraer virus, ya que los virus son programas, generalmente pequeñas porciones de código, pero son ejecutables, y el sistema operativo es incapaz de diferenciar si son maliciosos o no, la razón de que sean menos frecuentes en Mac que en Windows, es que en realidad Windows es el sistema operativo más usado en todo el mundo, miles de millones de computadoras usan versiones viejas y modernas de Windows todos los días, y es relativamente sencillo para alguien con conocimientos de programación crear virus para esa plataforma, derivando en que la falta de interés de creadores de virus y software malicioso de crearlos para Mac se debe a la pequeña porción del mercado que estas representan comparadas con Windows. En este momento se podría aclarar que software malicioso sería cualquiera que realice tareas que el usuario no solicitó, tanto Windows como Mac OS X son plataformas de código cerrado, y los contratos de los programadores que trabajan en ellos tienen cláusulas de no-divulgación, aun así se puede rastrear que procesos de nuestro sistema operativo están transmitiendo información a través de internet y ver tambien a que IP o URL dirigen esas transmisiones, lo cual nos lleva a que ambos sistemas operativos realizan maniobras de “data harvesting”, o sea, coleccionan información de sus usuarios que luego es utilizada para “emplazamiento de productos”, significando que la información es “vendida” a diferentes empresas que la utilizan para crear perfiles de nuestros hábitos de consumo, lo cual puede convertirse en dinero cuando logran mostrarnos publicidades acordes a nuestros intereses, ya que otras empresas pagan para que esa publicidad sea efectiva, es decir que cause en los usuarios un click o una compra, estás empresas pagan un porcentaje menor por cada visualización efectiva y uno mayor por cada click, hasta ahí lo de publicidad, pero en algunos extremos se trata de empresas asociadas (programas de partnering) que tambien pueden pagar por cada compra realizada.

Considerando lo anterior, estas porciones de código de los mencionados sistemas operativos tambien pueden llegar a considerarse maliciosos, desgraciadamente el sistema de software cerrado no permite corroborar el código y sin eso no se puede tener pruebas para iniciar acciones legales, ya que se escudan en el copyright y otras licencias privativas, el famoso contrato de licencia de usuario final que todos aceptamos sin siquiera leerlo cada vez que instalamos algo. Existen dos paradigmas de programación que pueden librarnos de estos códigos maliciosos, uno es el free software (software libre) y el otro es el open source (software de código abierto) sin bien cada modalidad tiene características diferentes ambas permiten leer el código de los programas creados con esas filosofías, por lo tanto la existencia de códigos maliciosos dentro de programas oficiales (no virus) puede ser corroborada por usuarios con conocimientos de programación, ninguno de estos programas posee código malicioso, ya sea por filosofía o porque comunidades de programadores independientes a la marca, fábrica, o creadores del software, se encargan de revisar cada línea de código. Dentro de estas categorías podemos encontrar sistemas operativos como GNU, Linux y BSD, en los cuales el código abierto también permite la existencia de muchas versiones diferentes llamadas distribuciones (abreviado distros) mantenidas por diferentes comunidades, y todo el software que viene con ellos o que se puede conseguir para ellos sigue los mismos lineamientos de las filosofías madres por las cuales fueron creados, aunque también existen de los que llamamos mixtos, los cuales contienen software de código cerrado, y son una solución para quienes dependen de algunas tecnologías que solo existen en formato cerrado, como Adobe Flash, o algunos codecs de audio y video.

Las notebooks no gamer permiten cambiar los discos rígidos, o reemplazarlos por unidades SSD, y la memoria RAM. Las notebooks gamer en cambio pueden ofrecer aparte de las opciones anteriores la de cambiar placa de video (o placas, algunas poseen dos aún en el pequeño espacio que ocupan) y en casos extremos también permiten el reemplazo del procesador.

Asus y MSI ofrecen las mejores notebooks gamers del mercado. Asus por la calidad de sus componentes internos, muy superiores de los de cualquier Mac. MSI por otro lado puede llegar a ofrecer múltiples SSD (hasta 4) en configuraciones RAID 0 (es una forma de interconectar unidades de almacenamiento que permite doblar o triplicar la velocidad de las mismas), doble placa de video interconectadas por SLI (la tecnología de Nvidia que permite a dos o más de sus placas trabajar como una duplicando la potencia), y teclados mecánicos en su modelo tope de gama, son los mejores teclados para quienes tipean mucho, sean programadores o escritores, y por lo tanto también para quienes hacen uso intensivo de las teclas (gamers), poseen pulsadores del tipo Cherry MX, considerados como los mejores disponibles.

En las notebook Apple en cambio se puede cambiar poco y nada. Recordando que el cuerpo de la MacBook Air es de aluminio macizo, es imposible de abrir, y por lo tanto imposible cambiar nada de lo que tenga adentro. Otras pueden permitir cambio de unidad de almacenamiento o de unidad óptica, pero no mucho más. Se debe a lo que llamamos obsolescencia planificada. Es decir, los productos Apple están diseñados para ser usados por una determinada cantidad de años para luego generar la necesidad en el usuario de un reemplazo que sea mejor, más potente, o más rápido, de hecho pueden actualizar el software de las Mac sin consultar ni pedir aprobación al usuario o pueden cancelar todas las actualizaciones de los productos viejos, quedando como única opción comprar una nueva. El componente que llegará primero al final de su vida útil es la batería, la cual no se puede reemplazar en una computadora que no se puede abrir, solo hay dos maneras de reemplazarla, comprando una nueva computadora, o enviándola a Apple para que sea reemplazada, para lo cual la compra de la misma tiene que haber sido a través uno de sus canales oficiales, y haber comprado junto con ella la garantía extendida que ofrecen bajo el nombre “Apple Care”. Pueden negarse a reemplazarla en computadoras viejas para las que ya no ofrezcan mantenimiento ni soporte técnico o que no tengan o haya vencido su plan de Apple Care. La batería en una notebook gamer y en cualquier otra notebook es el componente más fácil de reemplazar. El servicio técnico de Apple y su servicio de atención al cliente, si es que tenés que hacer uso de alguno de ellos, son los peores que existen, sus técnicos no son técnicos, son incapaces de responder cual es la velocidad de la unidad SSD que se ofrece con el último modelo de Mac Mini o cual es la resolución máxima de monitor soportada por su placa de video. La mayoría del personal de atención telefónica de Apple solo son entrenados en ventas y están más interesados en vender una Mac que en ayudarte.

La Mac Mini 2012 permitía comprarla con un procesador i7 de notebook con 4 núcleos, disco rígido de 500GB y memoria de 4GB de 1600Mhz, siendo la única parte no actualizable de las mencionadas precisamente el procesador, así que se podía tener una Mac por un precio razonable y reemplazar la RAM por 16GB de memoria de 1600Mhz y el disco rígido por una unidad SSD. Con esos cambios al hacer los testeos de potencia daba números superiores a los de algunas iMacs, así que era un buen negocio. Cada modelo siguiente fue permitiendo hacer menos cambios, hasta llegar al modelo 2014, la cual solo se ofrece con i5 de doble núcleo, no se le puede cambiar la RAM ya que está soldada a la placa madre (o placa lógica, como la llama Apple) y el disco rígido se encuentra en un lugar casi inaccesible que requiere de un desensamble total de sus partes para poder acceder a él y reemplazarlo por un SSD. Apple no quiere que sus usuarios actualicen sus Macs porque quieren que cuando necesites más de ellas compres una nueva o directamente convencerte de que compres una más cara desde el vamos. Cada cierta cantidad de años Apple realiza actualizaciones masivas de todo su software incluyendo sistema operativo, lo cual vuelve obsoleto cualquier modelo viejo, podés seguir usándolo con el software que ya tiene instalado, pero no podés instalar nuevo software nunca más, ya que el nuevo es incompatible con el sistema operativo viejo, y peor aún el software viejo tampoco funciona con el sistema operativo nuevo, obligándote a volver a comprar las nuevas versiones de esos programas aunque ya habías pagado por ellos en tu anterior Mac. Se puede evadir esto realizando una maniobra conocida como “Jailbreak” (escaparse de, o romper, la cárcel), la cual cancela las prohibiciones que el sistema operativo ejerce para que todo el software instalado provenga de la Apple App Store y no de otras fuentes. Es viable pero hacerlo rompe con la filosofía que la mayoría de los usuarios de Apple suelen tener, básicamente sería “hackear una mac”. Lo más curioso es que los fundadores de Apple se llamaban a sí mismos hackers, y durante esa época sus publicidades hacían ver que sus productos eran para quienes rompían las reglas, de un tiempo a esta parte las publicidades de Apple solo demuestran que tan tontos Apple cree que son sus usuarios, basta con prestarles atención para darse cuenta que sus productos estás destinados a gente poco inteligente y con mucha plata. Lo que me lleva al injustificable inflado precio de las Macs, las PC de gama más alta con exactamente los mismos componentes internos de una Mac salen menos de la mitad que esa Mac, o dicho en otras palabras gastar el dinero que sale una Mac en una PC te da el doble (o más) de potencia y calidad que te da una Mac de ese precio. Y por último, PC es una norma inventada por IBM e Intel con ayuda de Microsoft, el nombre completo es PC IBM Compatible, llamada así por el hecho de que con esta norma cualquier fabricante puede crear componentes compatibles con la misma y los usuarios u otras empresas pueden armar computadoras compatibles con la norma usando esos componentes. Cuando las Macs usaban procesadores Motorola 68000, y luego IBM PowerPC, eran totalmente incompatibles con la norma PC, al pasarse a procesadores Intel, se volvieron en automáticamente compatibles, prueba de ello es la posibilidad de instalar Windows en una Mac a través de lo que Apple llama Bootcamp, pero al hacer esto, lo que en realidad hizo Apple es crear computadoras PC IBM Compatibles, y venderlas bajo el nombre Mac sin decirles a los usuarios que en realidad son PC’s pero con una etiqueta de precio injustificadamente elevada. Otra prueba de que las Macs son PC’s, es que se puede armar una computadora con componentes de PC de las marcas que ya estuve mencionado, e instalarle Mac OS X, a estas computadoras se las llama Hackintosh, obviamente por la palabra hack, y porque Mac es abreviación de MacIntosh, llamadas así por un tipo de manzana, supuestamente la mejor, por otro lado el logo original de Apple era Newton debajo de un árbol de manzanas. Y un dato totalmente irrelevante, el primer PDA (personal digital assistent, intentos de tablet muy anteriores a la primera tablet exitosa) de Apple se llamaba Newton, y aparece en Los Simpsons demostrando uno de los más grandes problemas de toda la historia de Apple, incluso la actual, el reconocimiento de escritura, Nelson escribe Beat Martin (golpear a Martin) con su lápiz stylus en su Newton y este último interpreta Eat Marta (comer a Marta), aún hoy la frase es usada dentro de Apple, cada vez que hablan de arreglar el autocorrector del iPhone dicen “comer a Marta”. Apple tampoco inventó las tablets, el iPad es muy posterior a las primeras tablets que aparecieron, aunque sin duda si fue el primer producto en este formato en ofrecer una experiencia de usuario satisfactoria a través de su sistema operativo. Cada producto Apple fue copiado de algo que existía antes, tanto en funcionalidad como diseño y apariencia estética. Solemos decir que no es una empresa innovadora o creativa sino una empresa de fórmulas (o pociones, o recetas), que añade un poco de esto, un poco de aquello, y te convence de que lo inventaron ellos. Sin mencionar que hay gente con tanto “engagement” con la marca que está dispuesta a pagar cualquier suma de dinero por lo que sea que la empresa largue al mercado. Estéticamente Apple lleva años copiando antiguos diseños de la marca Brown, basta buscar en Google algunas fotos para encontrar las similitudes.

Con respecto a la temperatura que levantan los componentes de las computadoras, el intercambio de electrones siempre provoca liberación de energía en forma de calor, de luz o de ambas. Cuando más potente es un componente mayor calor liberará, eso se soluciona con buenos sistemas de enfriamiento, los hay por aire, por líquido (con agua y radiadores, como los autos), y en los casos más extremos por aceite mineral, que son las computadoras sumergidas que parecen peceras. Si una computadora no libera calor se puede deber a dos razones, a su baja potencia, o a tener un sistema de enfriamiento totalmente eficiente, lo cual es imposible ya que temperatura habrá, el hecho que no la sintamos es otra cosa, por ejemplo, volviendo a la MacBook Air, un cuerpo de aluminio macizo, o actúa como el mejor disipador de calor del mundo, o no permite que sintamos el calor producido por los componentes internos debido a que la transferencia de calor es mínima o inexistente, o a que el grosor del aluminio evita que el calor llegue a atravesarlo completamente, pero definitivamente el calor tiene que estar ahí adentro si es que se trata de electrones moviéndose, y de eso se trata la electrónica, o en última instancia está laptop es menos potente que una Chromebook y por eso casi no genera una cantidad de calor perceptible por el ser humano.

Me veo en la obligación de aclarar que mis dos últimas computadoras fueron PC’s y ambas me duraron 5 años teniéndolas prendidas las 24 horas del día, algunas personas me han dicho que sus MacBooks solo les duraron dos o tres años con muchas horas menos de uso diario a las que yo les doy a mis computadoras.

Últimamente me han hecho reflexionar sobre el rol de la tecnología, la cual debería ayudar al ser humano y facilitarle las tareas para las que se la pretenda usar, los usuarios de Apple más inteligentes con los que he hablado han destacado el hecho de que para usar una computadora tipo PC con Windows (o Linux) como sistema operativo como lo hago yo, durante 5 años de uso continuo 24 horas diarias, sin un solo cuelgue ni error de compatibilidad de hardware ni de software, se necesitan conocimientos que no todo el mundo tiene el tiempo, la paciencia, capacidad o disponibilidad para adquirir, y que si el rol de la tecnología es facilitar y no complicar, es mucho más viable un sistema que no ponga a sus usuarios en la obligación de adquirir conocimientos para un uso satisfactorio de los mismos, el famosos “conecte y use”, haciendo una analogía con la serie de ciencia ficción Star Trek, el avance tecnológico debería permitir que manejar una nave espacial no sea una tarea que requiera haber completado carreras equivalentes a las de Ingeniería en Sistemas o en Electrónica, ni ser experto en Física Cuántica, debería ser algo más parecido a como actualmente se maneja un auto. La postura de pagar de más, por esa tranquilidad de que el uso no requerirá de conocimientos que no poseo, y la facilidad y sencillez me permitirán hacer directamente lo que quiero sin ninguna clase de preámbulo ni complicaciones, me resulta similar a la de quien compra una consola de videojuegos de última generación por las mismas razones, sin importarle que el hardware que las mismas poseen en su interior no son la ULTIMA tecnología, sino más bien tecnología de hace varios años atrás, e invertir esa misma cantidad de dinero en una PC personalizada para precisamente lo mismo, que sería jugar, si nos dará componentes que representen la tecnología disponible actualmente en los mercados, con una potencia varias veces mayor a esas consolas, y una compatibilidad con una gama mucho más amplia de juegos, y a una computadora de esas características se le podría conectar cualquier clase de monitor, de cualquier cantidad de pulgadas, y hasta 6 monitores simultáneos formando paneles aún más grandes que algunos televisores actuales, y con la placa de video adecuada se podrían usar resoluciones de 4K sin problemas, y si alguien menciona que la exclusividad de los títulos (cuando un juego sale solamente para una consola) es excluyente a la hora de decidirse por un sistema de juegos (consolas o PC), la mayoría de esos títulos dejan de ser exclusivos luego de un año de su estreno, ya que una versión de PC de los mismos sale tarde o temprano, y aun así, Windows posee una mayor cantidad de títulos exclusivos que todas las consolas sumadas, ya que muchos juegos solo funcionan sobre Windows y no en consolas. Pero si toda esa comodidad que mencioné antes, es lo más importante para vos, tanto que no te importa cuánto dinero tengas que desembolsar para tenerla, entonces adelante, compra una Mac (o PlayStation o Xbox).

La mejor computadora es aquella que tengas ahora mismo y que te permita hacer aquello que intentas hacer, o la mejor que puedas pagar, o aquella que te parece más cómoda o más sencilla. Sea cual sea tu prioridad, la cual podría ser que lo haga más rápido, o que lo haga mejor, con mejores resultados o de una manera más eficiente, un punto de equilibrio entre la calidad del resultado obtenido y la velocidad con la que fue logrado, o que llegar a ese resultado sea más sencillo y sin complicaciones ni imprevistos, la mejor computadora es simplemente aquella que te parece mejor o la que más te gusta. Yo, hoy, elijo PC con Windows (o Linux).

Aclaraciones

No admiro al creador de Linux, es más, creo que siento lo contrario a la admiración, no sé si me desagrada más Linus Torvalds o Steve Jobs, no, creo que más Steve Jobs.

Linux es solamente el kernel (núcleo) del sistema operativo, es un conjunto de instrucciones que hacen que todo ande, y el encargado de comunicarle al hardware lo que el software quiere hacer. La mayoría de las aplicaciones que la gente llama Linux (como sistema operativo no como kernel) pertenecen al proyecto GNU, que es un proyecto de sistema operativo completamente abierto creado por Richard Stallman bajo la filosofía del “free software” (tambien creada por Stallman). Así que Linux (como sistema operativo) debería ser llamado GNU/Linux, que se lee GNU con Linux (sistema operativo GNU con kernel Linux). Hay otros kernels pero Linux funciona bien y por eso es tan usado. A quienes admiro son a Ken Thompson y a Dennis Ritchie, creadores del lenguaje de programación C y del sistema operativo Unix, en el cual están basados casi todos los sistemas operativos modernos (GNU, GNU/Linux, BSD, FreeBSD, OpenBSD, NetBSD, Solaris, SunOS, Mac OS X, etc.) excepto Windows.

También por un tiempo admiré a Gary Kildall, creador de CP/M, el sistema operativo del cual Seattle Computer Products se copió para hacer el QDOS, que luego fue comprado por Microsoft, reescrito, y renombrado MS-DOS. Y admiro a Bill Gates, fundador de Microsoft. Pero Steve Jobs y Linus Torvalds siempre me cayeron mal. Y también me cae un poco mal Andrew Tanenbaum, creador de Minix, un sistema operativo basado en Unix que “inspiró” a Linus Torvalds a crear su propio kernel y más tarde llamarlo Linux.

Así que los padres de lo que hoy en día la gente llama Linux son Richard Stallman y Linus Torvalds, y los abuelos serían Ken Thompson y Dennis Ritchie. Admiro a Stallman, a Thompson, a Ritchie y a Gates, me desagradan Torvalds y Jobs, no siento admiración por Kildall pero lo respeto, y Tanenbaum no me desagrada, pero tampoco lo respeto del todo.

Ninguno de los padres de GNU/Linux usan Ubuntu (basado en Debian) ni Debian, Linus Torvalds usa Fedora, que deriva de Red Hat, y Richard Stallman solo usa distribuciones GNU/Linux que sean 100% libres. Que son las que figuran en esta lista:

https://www.gnu.org/distros/free-distros.html

Si te gusta lo que lees considera contribuir con este blog para que el mismo pueda tener más y mejor contenido. Contribuir.

Licencia Creative Commons
Esta obra de Juan Pablo Castañeda está bajo una Licencia Creative Commons Atribución 3.0 Unported.

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s