A mis fieles lectores

Cuando empecé con este blog,  nunca pensé que sería algo más que un pasatiempo temporal, o una actividad esporádica solo por el hecho de practicar la escritura de vez en cuando.

Mis primeros artículos estuvieron relacionados a lo que me encontrara estudiando al momento de escribirlos. Empecé hablando sobre programación de videojuegos y terminé hablando de audio, música en vivo y home recording.

Y es que la música pasó a ser cada vez más importante para mí, y el paso siguiente a tocar la guitarra y estar en una banda, era poder grabarnos y escuchar como sonamos. No habiendo otro que tuviera tal inquietud, empecé a ser el encargado de todo el aspecto técnico, y con los años, leyendo, estudiando, y gracias a internet, YouTube y la experiencia adquirida mis artículos en este blog comenzaron a reflejar todo lo aprendido.

Hoy en día la cantidad de visitas a este sitio ha superado todas mis expectativas, el último año la cantidad de visitantes diarios triplicó la de años anteriores, y lo veo reflejado en los comentarios y mails que recibo. Que lamentablemente algunos quedan sin respuesta de mi parte hasta por un mes, ya que mis estudios, mi profesión, y la música consumen la mayor parte de mi tiempo, y el tiempo libre que le dedicaba al blog hoy ya no existe. Sin embargo no pienso abandonarlo, porque es enorme la satisfacción que me da cada vez que respondo un mail o un comentario y siento que realmente estoy ayudando a alguien que está pasando por situaciones por las que yo pasé hace unos años.

Por eso he decidido hacerme tiempo para el blog tomándolo como parte de mi trabajo para lo cual me tomo el atrevimiento de solicitar la ayuda de todos mis fieles lectores y seguidores, e ir así mejorando este sitio, llegando a cumplir la siguiente lista de metas que me he propuesto para el mismo.

  1. Alojar el blog en un mejor servidor, que me permitirá mayor control sobre el diseño, así como también el uso de mejores herramientas de creación.
  1. Contratar asistentes que se encarguen de correcciones menores y comenzar la creación de videos explicando los procedimientos descritos en los artículos.
  1. Los asistentes se encargarán además, de las redes sociales y ayudarán en el diseño del blog. Mejorando la calidad y frecuencia de los artículos, los cuales serán ilustrados con fotografías explicativas de alta definición.
  1. Los asistentes se dedicarán a correcciones extensas, edición, responder mails y comentarios, y ayudar en la producción de videos, los cuales mejoraran en calidad y en frecuencia.

Espero lograr ir alcanzado estas metas durante los próximos años con la ayuda de quienes visiten está página y encuentren interesante y útil los artículos que aquí publico.

Para lo cual he puesto las siguientes herramientas para quienes quieran contribuir monetariamente para que esto suceda: Contribuciones.

Desde ya muchas gracias por las enormes satisfacciones que me da el leer sus comentarios y mails, y eso es más que suficiente para motivarme a seguir adelante. Pero quien quiera y pueda tiene la opción de contribuir a través de una donación para ayudar a que todo esto no solo siga adelante, sino que siga mejorando cada día.

Gracias. Visita la página de donaciones.

Anuncios

Ideas para películas o cortos de terror

Cuatro historias cortas escritas hace tiempo, y la verdad que mas que historias, relatos o cuentos, son simplemente ideas a las cuales se las podría elaborar más hasta convertirlas en algo que realmente pudiera ser llevado a formato de corto cinematográfico, pero hoy desperté con ganas de publicarlas en mi blog. Adjunto un link para descargarlas en formato PDF para quien así lo prefiera: Ideas para películas o cortos de terror.
 

Mala Señal (Celulares Zombis)

Una nueva compañía de telefonía celular aparece en el país, ofreciendo grandes promociones y descuentos a los nuevos suscriptores muy pronto se convierte en la más usada por todos, hasta que sus usuarios empiezan a notar que cada vez tienen más problemas, la señal baja inexplicablemente dificultando él envió de SMS, hacer llamadas y usar internet. Las baterías cada vez duran menos, y se van hinchando, agrandando considerablemente su tamaño, dejándolos sin tapa ya que estas no calzan o saltan por la hinchazón, el celular se apaga y se enciende solo sin razón aparente, aparecen algunas aplicaciones que se instalaron solas y que consumen el saldo de la línea, y el sistema se actualiza sin consultar al usuario. De pronto, se dan situaciones fuera de lo común, al dejar un celular de otra compañía cerca de uno de los “infectados”, el “sano” aparece destrozado inexplicablemente, la situación se repite un par de veces hasta poder comprobar que los “infectados” son violentos y destruyen a celulares de compañías rivales, de las maneras más terribles y “sanguinarias” posibles. Entonces algo extraño sucede, el “virus” muta, y empieza a contagiar a celulares de otras compañías, hasta que muy pronto todos los celulares están infectados dejando a todo el país sin servicio o con limitaciones que dificultan notablemente las comunicaciones. Al final un joven encuentra que las últimas cosas que le pasaron fueron trasmitidas en vivo a través de internet y cuando los eventos llegan al momento en el que él se encuentra, salta un “pop-up” indicando que el video es interactivo y que puede elegir el resultado de los siguientes sucesos, “para final feliz mandá VIVE al 2020”, intenta hacerlo con su celular para poder salvarse pero no tiene señal y muere inexorablemente.
 

Fantasma Negro (Paraguayo)

Una familia argentina prueba el “Juego de la Copa” en su casa a las afueras de Clorinda, en Formosa, cerca de la frontera con Paraguay. Hacen contacto con un espíritu que afirma ser un soldado que murió en la guerra. Luego de unas cuantas preguntas la copa se rompe y en ese momento se corta la luz, y vuelve con baja tensión, con esa luz tenue ven a un hombre de raza negra con uniforme antiguo de soldado sentado junto a ellos a la mesa, y todos salen corriendo asustados. Uno de los miembros de la familia destaca el hecho que se cree que cuando la copa se rompe durante ese juego, el supuesto espíritu se queda atrapado en la casa no pudiendo abandonar ese lugar. Después del incidente, los miembros de la familia lentamente van adquiriendo una serie de extraños síntomas, el padre y el hijo conversan sobre ver partidos de fútbol de equipos paraguayos en la televisión, la hija compra una hamaca paraguaya y duerme largas siestas en ella, la madre cocina chipá y sopa paraguaya, al niño en la escuela sus compañeros le piden que les enseñe insultos en guaraní, entre ellos estos síntomas pasan inadvertidos, hasta que un familiar viene de visita y empieza a notar los cambios que ellos están sufriendo, como que el mate se encuentra demasiado frio y que levantaron una nueva casa en solo dos días. Notas: Cada vez que el fantasma aparece o se manifiesta de alguna forma se escuchan unas notas en tono tétrico de un conocido chamamé. El fantasma fue uno de los soldados que murieron durante La Guerra de la Triple Alianza.
 

FLOG!

La famosa página Fotolog se encuentra cerrada oficialmente y es noticia en todos los medios, la falta de uso de la misma desde la desaparición de los últimos floggers ha hecho que la empresa funda y que les sea imposible mantener el servicio en funcionamiento. Pero extrañamente muchos internautas alegan poder seguir entrando al dominio fotolog.com el cual parece conservar su funcionalidad intacta. Ex usuarios de la red social que permitía publicar una foto diaria y recibir firmas de sus congéneres hoy se encuentran diseminados en su mayoría por Facebook, y ya no se llaman así mismos floggers, dejaron de usar esa ropa y esos peinados hace mucho, y abandonaron todas las famosas costumbres de la pasajera moda que hoy ya es tan solo un recuerdo en la cabeza de pocos. Un día, una de estas personas recibe un muy extraño saludo en su muro de Facebook, el mismo dice “ay me paso gor sos re tap fírmame el flag arre”. De pronto sintió haber vuelto al año 2007 por un momento, y que aquella antigua moda aún estaba vigente, pero no era así, ya nadie habla así, y si bien al principio ignoró el mensaje y se olvidó completamente de él, a los pocos días le picó el bichito de la curiosidad y esas palabras no dejaban de resonar en su mente. Decide, aun sabiendo que la página no existe más, tratar de entrar a la misma, y para su enorme sorpresa si pudo, más allá de que hace unos años las noticias afirmaban la caída de los servidores de Fotolog por falta de pagos, la página ahí estaba, brillando en su computadora con esos colores tan parecidos a los de sus viejos chupines. Empezó a revisar y la página parecía activa, con firmas recientes, pero, un momento, no, todas tienen fecha del 2007, la página no funciona más, y aunque funcione nadie la usa. Pero cuando estaba por cerrar la pestaña de su navegador, una nueva firma aparece, pero extrañamente también aparece fechada como del 2007, no dejó de parecerle extraño, pero aun así le restó importancia, cerró la pestaña y se fue a dormir. Entonces tuvo uno de los sueños más raros de su vida. O al menos creyó que era un sueño. Una chica se aparecía en su habitación, y parecía entrar y salir de la oscuridad de la misma para repetir frases como “fírmame el flog”, “sos re tap”, “arre”, “mis chupines nuevos”, “sos re caño” cuyas últimas palabras o silabas seguían resonando como si tuvieran un delay de varias repeticiones. La chica tenía todos los rasgos estéticos característicos, definitivamente era una flogger. Al otro día si bien sentía bastante curiosidad le daba un poco de miedo volver a acercarse a su computadora, pero al volver de la escuela no se pudo resistir y volvió a entrar a fotolog para esta vez fijarse si aún podía acceder a su vieja cuenta, luego de esforzarse en recordar su contraseña al final y después de varios intentos logró entrar, y si bien todo parecía normal, muchas de sus viejas fotos tenían todas varias firmas de una misma chica, y lo más extraño de todo, las firmas seguían apareciendo, no cabían dudas, eran firmas nuevas, pero la fecha seguía mal, otra vez 2007, sin duda alguna un problema en el servidor, ya que supuestamente había sido dado de baja, pero si aún seguía funcionando alguien debió cometer algún error en la empresa responsable y eso provocaba ese comportamiento en fotolog. Los días pasaron y las visitas nocturnas de su chica flogger cada vez se volvían mas molestas, más insistentes y le daban más miedo. Así que decidió entrar al fotolog de la chica que siempre le firmaba y dejarle unas firmas con el antiguo lenguaje flogger, effearla y mostrarle un poco de “cariño cibernético” con la esperanza de que así desaparecieran los acosos. Aunque al principio esto pareció calmar esa actividad nocturna que sufría, luego de unas noches se dio cuenta de que no, si bien ya no la escuchaba hablar, la chica seguía en su habitación, oculta en la oscuridad, la escuchaba respirar. Pensó en encontrar a la chica, la real, la dueña del flog, pero no parecía haber rastros de ella, al menos no en la internet actual, toda su actividad en la red parecía ser únicamente por fotolog, no respondía mails, no se la encontraba conectada por redes como MSN o Skype, y no parecía tener Facebook, que raró, todo el mundo tiene Facebook, a menos que ya no use ese mail, pero, hubiera actualizado su perfil de fotolog ¿no? Entonces busca en Google alguna forma de saber por dónde más o menos la podía encontrar, algo que le diera alguna pista, si bien sabía que rastrear la IP era inútil, ya que siempre son dinámicas y no se las puede relacionar a un usuario fijo o a una computadora particular, al menos quería saber qué compañía de internet usaba y ver en que nodo aparecía conectada como para tener una idea de ubicación geográfica aproximada. Pero, ahí estaba, ese numerito, no puede ser, ¿cómo? 127.0.0.1 la IP reservada para localhost, o sea, cuando no estás conectado internet, es esa IP la que se usa para referirse a la misma computadora que estás usando, imposible, pero así era. Buceando en varios foros de dudosa reputación dio con un post que parecía tener siempre la posta en temas referidos a internet y comportamientos erráticos de páginas webs, pero ninguno de los ítems respondía a su duda particular, así que decide comunicarse con el autor del post. Luego de intercambiar algunos mensajes con información técnica, ese autor, intrigado por el caso tan particular, le propone verse personalmente para tratar de aclarar la situación. Cuando se encuentran se trataba de un viejo pelado de arriba pero con pelo a los costados y que usaba anteojos. Luego de varias investigaciones el pelado concluyó que efectivamente se trataba de un fenómeno sobrenatural, y le cuenta que los espíritus son energías y así como pueden quedar registradas psicofonías en medios fonomagnéticos, se podría dar que algún tipo de fuerza sobrenatural también quede registrada en los discos rígidos de las computadoras ya que también eran un dispositivo magnético de almacenamiento, le recomienda encontrar el servidor donde está “grabado” el fantasma y destruirlo para terminar con la maldición. Entran al edificio de Wiroos, y encuentran una computadora vieja y en mal estado que al parecer sigue funcionando y conectada a internet, es ahí donde se aloja la versión de fotolog a la que aún se puede acceder, se roban el equipo y lo destruyen prendiéndolo fuego. La maldición pareció terminar, pero el momento de relax no duró mucho, a los pocos días las firmas volvieron y fotolog aún era accesible. La información del disco rígido había sido copiada a un proxy y seguía existiendo en internet, pero ahora ya era imposible de alcanzar y de destruir.
 

Infección Séptica (El Baño del Infierno)

Máximo Paz es un pueblo que en algunas mañanas presenta una intensa niebla, y cuando algún ajeno llega a visitar el barrio se queja de sentir olores desagradables, la gente del lugar atribuye esos olores a las fábricas de la zona industrial, o al matadero y frigorífico que se encuentra dentro del pueblo. Pero la verdad es aún más cruda y de orígenes más siniestros. A lo largo de la historia han surgido en el mundo ciudades o pueblos alejados que llegaron a hacerse famosos por circunstancias muy poco convencionales, donde muchos de sus habitantes parecieron sufrir de posesiones demoníacas, extrañas transformaciones y muertes inexplicablemente violentas. A muchos de esos lugares, literariamente se los ha llamado “Puertas del Infierno”, ya que se cree que efectivamente esos acontecimientos se deben a que en ese lugar existe una conexión con el inframundo que les permite a los demonios llegar fácilmente hasta nuestro plano. Pero el caso de Máximo Paz es bien diferente, Máximo Paz no es una Puerta al Infierno, Máximo Paz es el Baño del Infierno. En el medio del campo se aparece un enorme circulo de fuego y el interior del mismo se convierte en completo vació, de pronto, de ese agujero empiezan a salir toda clase de demonios, criaturas, fantasmas y monstruos que se ponen a hacer sus necesidades en ese campo y en las inmediaciones. La niebla que acosa a Máximo Paz no es otra cosa que los gases que despiden los demonios de sus rectos. Esa larga exposición a los desechos de los demonios y sus gases va provocando cambios en los habitantes del pueblo, se van convirtiendo poco a poco en gente de mierda. En quienes viven en este lugar sus compañeros de trabajo van notando ciertos cambios y un particular olor que los hace preferir permanecer alejados, poco a poco se ven aislados y sin amigos, y se refugian más y más en otras personas del mismo pueblo, su comportamiento se vuelve grotesco y van demostrando cada vez más una notable falta de moral y de ética, así como también una enorme falta de buen gusto, incluso aquellos que eran metaleros empiezan a escuchar ritmos tropicales y música de la más baja calidad, la cumbia y el reggaetón se convierten en sus géneros favoritos, todos se ven afectados, rockeros y chetos por igual, no se salvan ni rastas ni caretas, todos se convierten en seres inferiores, dedican su vida a actos impuros, al crimen y a los peores comportamientos de los bajos fondos. Consiguen armas y no tienen inconvenientes en cagarse a tiros con quienes se les cruce, consumen toda clase de drogas y de alcohol, cualquier cosa es buena para ellos, aún las de peor calidad. Robar, matar y violar son cosas naturales, tanto los hombres como las mujeres hacen sus necesidades fisiológicas y copulan al aire libre y a la vista de todos sin la más mínima vergüenza, se van volviendo cada vez más violentos al punto tal de que los pueblos aledaños los consideran un problema demasiado peligroso. Máximo Paz se encuentra rodeado por dos  pequeños cursos de agua conocidos como Arroyo Alegre y Arroyo Cañuelas, y esos son precisamente los límites que eligen los pueblos vecinos para levantar grandes murallas que los separen de Máximo Paz y sus detestables habitantes. Desconectados del resto del mundo, empiezan a comerse entre ellos y a cometer las más horrendas e inhumanas atrocidades con los cuerpos y los restos de los muertos. Al final son unos Mirage de la Fuerza Aérea Argentina los encargados de tirar bombas Napalm dentro del amurallado Máximo Paz para aniquilar a todos esos negros cumbieros engendros de Satán.

Si te gusta lo que lees considera contribuir con este blog para que el mismo pueda tener más y mejor contenido. Contribuir.

Licencia Creative Commons
Esta obra de Juan Pablo Castañeda está bajo una Licencia Creative Commons Atribución 3.0 Unported.

¿Por qué no una Mac?

Introducción a nociones básicas del funcionamiento de computadoras modernas y guía de compras para principiantes

Se me pidió que redactara un texto capaz de enseñarle a alguien las diferencias entre Notebooks para Gamers de Asus o MSI comparadas con Notebooks de Apple y por qué sería mejor comprar las primeras en lugar de las segundas a pesar de la supuesta eficiencia y estabilidad del sistema operativo de Apple, más la estética de sus productos y la calidad de sus componentes.

Llamamos Laptop a toda aquella computadora que es posible usarla sobre la “falda” (lap en inglés), es decir sobre las piernas. Dentro de ellas se suele diferenciar entre dos grandes tipos, si la pantalla es de 9 a 13 pulgadas, se las llama Netbooks, más que nada porque su poder es inferior a las más grandes y están pensadas para navegar y usar aplicaciones web más que para usar aplicaciones nativas de la plataforma o sistema operativo en que este basada. De 14 pulgadas en adelante, siendo las más grandes de entre 17 y 23 pulgadas, se las llama Notebooks. Existen Ultrabooks de 13 pulgadas, pero las Ultrabooks siguen la filosofía de las MacBook Air, que no son más que una Netbook glorificada. Las Chromebooks son computadoras de baja potencia y bajo costo que vienen con un sistema operativo de Google llamado Chrome OS, que no es más que un Google Chrome que ejecuta aplicaciones web en lugar de aplicaciones almacenadas en los medios de la computadora, si bien algunas de ellas tienen la capacidad de funcionar off-line, dependen de la tienda de aplicaciones Google Play, y no encontraremos software profesional para esta plataforma y aunque los hubiera dependerían de la velocidad de nuestra conexión a internet.

La potencia de una computadora va ligada a la capacidad que la misma tiene para procesar información, esto es, cuantas tareas puede realizar al mismo tiempo, y que tan rápido puede hacerlas.

Lo primero que debemos analizar para deducir estos factores es el procesador, cuyo nombre correcto es CPU (Central Processing Unit), así es, CPU no es una carcasa o gabinete de computadora sino el procesador de la misma, el término se viene usando mal en Argentina desde hace años. Actualmente a esas “Processing Units” que hay dentro de un CPU se las llama núcleos (core en inglés) cada núcleo es un procesador en si, por lo tanto a mayor cantidad de núcleos mayor cantidad de procesos simultáneos, la velocidad de los núcleos se mide en GHz (Giga Hertz), en el mundo de las computadoras un Hertz es un ciclo por segundo, y sería el tiempo que tarda un pulso eléctrico en recorrer un circuito del núcleo, a una vuelta entera por el circuito se la llama ciclo, esto pasa continuamente dentro del procesador cada un intervalo regular que se conoce como “clock speed” (velocidad de reloj), estos ciclos son el reloj interno de los procesadores que le dicen a qué ritmo funcionar, por lo tanto 1 GHz serían 1000 MHz (Mega Hertz), o lo que es lo mismo, mil millones de ciclos por segundo.

Dependiendo del software que utilicemos, cada uno podrá hacer mejor o peor uso de un procesador multinúcleo, si el software está optimizado para hacer uso de esta cualidad, la tarea que el software le pide al procesador será ejecutada más rápido, ya que se reparte equitativamente entre todos los núcleos disponibles, pero si el software carece de esta optimización la tarea será realizada por uno solo de los núcleos, o dos a lo sumo. Tareas sencillas como el uso de un navegador como Chrome, pueden ejecutarse sin inconvenientes en un solo núcleo, pero los procesos de renderizado de imágenes (Adobe Photoshop) o de video (Adobe Premiere) se ven claramente acelerados cuando el procesador posee 4 núcleos o más.

Existen dos marcas de procesadores actualmente dominando el mercado en esta área, AMD e Intel. Los procesadores AMD suelen consumir más energía (electricidad en watts) y liberar mayor cantidad de energía calórica (que en los procesadores tambien se mide en watts) en el proceso (el movimiento de electrones dentro de un circuito siempre provocará perdida de energía calórica, cuanto más pequeños sean los componentes y mayor cantidad de ellos haya en menos espacio, mayor será el calor que liberen). Los núcleos en los procesadores AMD suelen ser menos potentes comparados con los núcleos de Intel, pero a cambio se pueden comprar procesadores de 6 u 8 núcleos por un precio muy inferior al de los procesadores Intel Core i7 más caros, que durante la tercera generación de esta familia de procesadores solo llegaron a tener un máximo de 4 núcleos, 6 durante la cuarta generación pero doblando el precio de los de 4 núcleos, y 8 núcleos en la quinta generación doblando el precio de los de 6 núcleos. A cambio Intel desarrolló una tecnología llamada Hyper Threading, que se podría llamar “capacidad multi-hilos” permitiéndole a cada núcleo manejar casi simultáneamente dos hilos de procesos, lo que en teoría elevaría la cantidad de núcleos del procesador, por cada núcleo real o físico, habría dos hilos por lo tanto al segundo hilo se lo puede considerar un núcleo virtual, en un Core i7 de 4 núcleos con Hyper Threading podemos decir que hay 8 núcleos, 4 reales y 4 virtuales. En la práctica los “núcleos virtuales” no se comparan en performance a los reales y siempre será mejor tener más núcleos reales con Hyper Threading que menos núcleos sin Hyper Threading.

Cuando el software que intentamos usar no está optimizado para hacer uso de todos los núcleos disponibles y así acelerar el tiempo en el cual sus procesos terminan de realizar cada una de sus tareas independientes, es el sistema operativo el que debe encargarse de distribuir los procesos entre cada núcleo libre disponible. Por lo tanto, podría utilizar tranquilamente un programa optimizado para ejecutarse en dos núcleos, más otros dos programas sin optimización ejecutándose cada uno en los dos núcleos restantes disponibles de un procesador de 4 núcleos, aunque en realidad, cada núcleo es capaz de manejar varios programas a la vez, esto nos da una idea de cómo este paralelismo de procesos multinúcleos puede mejorar la performance de un sistema acelerando la velocidad de los procesos gracias a la optimización que el sistema operativo posea para tal fin.

Actualmente el mejor procesador Intel Core i5 del mercado es el 4690, posee cuatro núcleos, pero como todos los i5 carece de Hyper Threading. Los mejores i7 que se pueden comprar hoy en día (omitiendo los de 6 y 8 nucleos) son el 3770 (de tercera generación) y 4770 (de cuarta generación) ambos con 4 núcleos y Hyper Threading. En Estados Unidos ya están disponibles cuatro modelos de Core i7 de quinta generación, pero estos funcionan bajo la plataforma Intel X99 (sería la forma de fabricar placas madres compatibles con esos procesadores) la cual usa memoria DDR4 (actualmente en el país y durante un par de años más el consumidor normal seguirá usando memoria DRR3). Para laptops Intel fabrica versiones reducidas de sus procesadores que consumen mucha menos electricidad y de esa manera ahorran batería. Los modelos Intel para laptops suelen tener una letra M (por mobile) luego del número de modelo, un procesador tipo M siempre será menos potente que el mismo modelo en su versión no M (es decir, desktop, o más claro, para computadoras de escritorio). Pueden aparecer otras letras luego del número de modelo de un procesador Intel, las más comunes son la K, que indica que dicho procesador es “oveclockable”, es decir que se le puede cambiar parámetros internos del “reloj de ciclos” del procesador para incrementar su velocidad, a cambio de lo cual tambien aumentará su temperatura y necesitará de un sistema de enfriamiento adecuado para alargar su vida útil. Otras letras frecuentes son la X, que indica que se trata de una versión “Extrema” generalmente tope de gama de la generación y suele incluir mayor cantidad de núcleos o mayor velocidad por núcleo que los no X. Y por último la Q que suele ser asignada a “rediseños” de un procesador existente al que se le han quitado determinadas características o bajado la velocidad de reloj para disminuir su consumo eléctrico o destinarlo a un sector de consumo más económico donde los rangos de precios son más bajos.

Estos “sectores de consumo” se encuentran bien diferenciados. Entry Level es el nivel más bajo, componentes diseñados para simplemente funcionar y a los que no se les puede pedir mucho más que eso, obviamente por esa razón es el segmento de menor precio. Consumer, es el usuario promedio, el cual requiere mayor capacidad de proceso que un Entry Level pero generalmente terminará usando aplicaciones utilitarias (Word, Excel, etc.). Prosumer, se trata del segmento destinado e los “semi-profesionales” o a consumidores normales pero con intereses profesionales, quienes suelen requerir un poco más de potencia pero no tanta. Enthusiast, se trata del segmento destinado a aquellos que su uso de las computadoras se podría comparar con el que “tunea” un coche, es decir que este tipo de usuario elegirá cada uno de sus componentes según las tareas que se proponga realizar, los componentes de esta gama suelen ser más caros y más potentes que la de todas las anteriores, y este tipo de usuarios generalmente se dedica a tareas de productividad, como son el uso de software de edición de imágenes, audio y video. El sector “Professional” comparte las características de los sectores Prosummer y Enthusiast, pero abarca diferentes niveles de profesionales los cuales pueden terminar usando componentes de otros sectores como Enterprise, Gaming, Workstations y Servers. El segmento Enterprise se caracteriza por la durabilidad de los componentes, lo que se busca es la eficiencia, por lo general son productos que permanecerán encendidos las 24 horas, y de los cuales se comprará gran cantidad por lo tanto se requiere bajo costo y gran durabilidad, se desechan características estéticas o de potencia para reducir los costos a cambio de aumentar la durabilidad, lo cual a veces se puede pagar más caro que el resto de todos los otros segmentos. Gaming, en este segmento los usuarios buscan potencia y elegancia, es decir que se suele pagar más por un producto que luce bien, aunque el “gamer” puro solo buscará potencia sin importarle la apariencia, si bien este segmento presenta productos muy caros es sin duda alguna el único segmento que ofrece mayor potencia por menor cantidad de dinero ya que a los gamers se los considera enthusiasts o prosumers, por lo tanto los componentes que llevan esta etiqueta suelen ser del agrado de los usuarios de esos dos segmentos y no solo de gamers y las empresas son conscientes de eso por lo tanto orientan la relación calidad/precio a satisfacer esos tres sectores. Workstations, se trata del tipo de computadoras que suelen usar los verdaderos profesionales de áreas como el cine, la producción musical, modelado 3D, o científicos. Son los componentes más caros y más potentes que existen y también poseen buena durabilidad, muchas “estaciones de trabajo” suelen estar montadas durante años en un estudio y requieren que esa potencia no se degrade con los años, placas de video profesionales como las Nvidia Quadro y las AMD FirePro conectadas a múltiples monitores suele ser la característica más visible de los setups (configuraciones de hardware de computadoras) de este segmento. Servers, estas computadoras pueden estar destinadas a diferentes segmentos pero comparten una característica, las cantidades de datos que manejan son enormes, y deben ser procesados lo más rápido posible, se utilizan una enorme cantidad de componentes en configuraciones llamadas clusters, permanecen prendidas las 24 horas del día y sistemas enteros como páginas y aplicaciones webs dependen de ellos, por lo tanto no se pueden dar el lujo de apagarlos aun cuando necesiten mantenimiento, para lo cual suelen usarse unidades de backup (respaldo) que toman control de los servicios que se estén administrando mientras se realiza el mantenimiento necesario es las unidades principales, en muchos casos se requiere que algunos componentes sean “hot swapable” (capacidad de poder intercambiarlos sin apagar el sistema), generalmente discos rígidos y en menor medida aceleradores de procesamiento gráfico como los Nvidia Tesla o coprocesadores como el Intel Xeon Phi (con hasta 61 núcleos). Si bien es un segmento en el que siempre se busca abaratar los costos por la gran cantidad de componentes necesarios, suelen ser los componentes más caros de todo el mercado, pero los de mayor durabilidad y potencia.

El mundo de las laptops también está segmentado por tipo de consumidores, pero las más potentes de cada marca suelen ser de la línea Gamer. Dentro de este segmento dos marcas pueden citarse como las más innovadores, potentes, confiables y durables de todo el mercado MSI y Asus. Ofreciendo notebooks con hasta 4 unidades SSD en RAID 0, doble placa de video Nvidia GTX y procesadores Intel i7 de cuatro núcleos con Hyper Threading. Sumado a pantallas que combinan mayores resoluciones con mejores tiempos de respuesta.

La velocidad en la que los monitores o pantallas realizan el “barrido” es decir el “cambio” o “refresco” de todos los pixeles de la pantalla se denomina “refresh rate” y se mide en Hz, cuando mayor sea esta frecuencia mejor es la respuesta de las pantallas a cambios rápidos en lo que se está visualizando, la mayoría de ellas usan la tecnología LCD aunque algunas suelen aparecer como LED, lo cual solo significa que estos paneles están retroiluminados con LED’s, facilitando la visibilidad en ambientes muy iluminados o a la luz del sol. Los paneles más rápidos son los de tipo TN, aunque suele considerase que representan los colores menos “acertadamente”, el ojo de un usuario normal no notaría la diferencia, para “corregir” ese detalle se inventaron los paneles con tecnología IPS los cuales poseen una mejor reproducción de los colores pero a cambio son más lentos que las pantallas TN, lo cual solo puede resultarle inconveniente a un hardcore gamer (jugador super-exigente), pero le vendrán mucho mejor a artistas, fotógrafos y cualquiera que trabaje con imágenes. Las resoluciones que actualmente deben tenerse en consideración son 1080p, 1440p y 4K. La resolución 1080p, también conocida como Full HD, FHD o BT.709, tiene una relación de aspecto de 16:9 (tipo ancho, o tipo cine) y cuenta con 1920×1080 pixeles, es decir que cada línea de horizontal de la pantalla está formada por 1920 puntos luminosos (pixeles) y cada línea vertical por 1080 pixeles. 1440p es una pantalla de tipo ancho con 2560×1440 pixeles. Y lo que se denomina 4K, Ultra HD o UHD, que es una resolución de 3840 x 2160 con relación de aspecto 16:9 o 17:8 casi cercana a la verdadera resolución de cine que es 4096 x 2160 en relación de aspecto 19:10 o 1:9:1. En esta época no tendría en consideración pantallas con resolución de 720p, que tienen una cantidad de pixeles de 1280×720 y se lo conoce como HD standard, porque resulta bastante inferior a los estándares actuales, ni tampoco otras resoluciones que fueran diferente a las anteriormente mencionadas ya que pueden provocar que lo que aparece en la pantalla adopte una apariencia “rara”, diferente a la que debería tener. Otro punto a considerar es la densidad de pixeles, es decir que en un monitor de 14 pulgadas con resolución de 1920×1080, los pixeles serán más pequeños, y la pantalla estará más “poblada” (mayor densidad de pixeles) que un monitor de la misma resolución (cantidad de pixeles) pero de 19 pulgadas, donde los pixeles serán considerablemente más grandes y al acercarnos lo suficiente podríamos diferenciar en donde empieza y donde termina cada pixel (menor población, o menor densidad). Lo que queremos es que siempre los pixeles sean lo más pequeños posible ya que la alta densidad siempre ofrecerá una mejor calidad de imagen, por lo tanto cuando más grande sea la pantalla (en pulgadas) mayor debe ser la resolución de la misma, para que los pixeles que la compongan sean más pequeños y por lo tanto la imagen tenga mayor densidad. Esto tambien depende de la distancia a la que la pantalla esté de nuestros ojos, a mayor distancia menos notoria será la baja densidad de pixeles de una pantalla, pero al irnos acercando la notaríamos más y más.

Otro factor que influye en la velocidad del sistema y por lo tanto en la calidad de la experiencia que tengamos con él, es la velocidad de las unidades de almacenamiento, si nuestro sistema operativo y la mayoría de nuestros programas se encuentran en una unidad lenta (un disco rígido de 5400rpm) será bastante notoria la lentitud con la que la totalidad del sistema opera, los discos recomendados son de 7200 RPM (revoluciones por minuto) o 10000 RPM, siendo estos últimos muchísimo más caros y menos frecuentes, la mejor alternativa para acelerar un sistema son las unidades SSD (Solid State Drive), llamados discos o unidades sólidas, o de estado sólido (una mala traducción del inglés, ya que solid state se refiere a que se trata de un dispositivo “transistorizado” o mejor dicho en este caso electrónico, compuesto por circuitos y chips) en contraposición con los discos rígidos que son mecánicos, magnéticos y eléctricos, las partes mecánicas de los discos los hacen muchísimo más lentos que las memorias de las computadoras, cuando decimos memorias nos referimos tanto a la RAM como a las de tipo flash (tarjetas de celulares o cámaras, y pendrives o unidades USB), los SSD son precisamente eso, memorias tipo flash, con controladores de alta velocidad y tipo de conexión SATA (Serial ATA, la misma que usan los discos rígidos), por lo tanto al usarlos para reemplazar a los discos rígidos las velocidades de lectura y escritura escalan a números muy superiores que los puede entregar un disco rígido. Las unidades SSD no poseen piezas móviles ni partes mecánicas, son totalmente electrónicas, la desventaja con ellas es la relación entre precio y capacidad, se pueden conseguir discos rígidos de 3TB por 100 dólares, mientras que con ese dinero tendremos que conformarnos con un SSD de 128 o 256 GB, dependiendo de marca y modelo, aun así todos son muchísimo más rápidos que un rígido y la mejora en velocidad total del sistema es inmediatamente notoria ni bien migramos de una tecnología a la otra. Precisamente por su baja capacidad de almacenamiento se usan generalmente para almacenar únicamente el sistema operativo y los programas más usados, usando para todo lo demás (imágenes, audio y video) discos rígidos. Aun así la mejora en velocidad es tal que al acostumbrarse a usar SSD nadie quiere volver a usar discos rígidos.

El siguiente factor a considerar es la memoria RAM, actualmente usamos del tipo DDR3, y las velocidades mínimas recomendadas son entre 1600 y 1866 Mhz, mayor memoria RAM nos dará la capacidad de ejecutar una mayor cantidad de programas simultáneamente, cuando damos la orden a la computadora de ejecutar algún software el CPU lee la información del disco rígido (o SSD) y la copia a la memoria RAM, que es donde se ejecutará el código de ese programa, la RAM es mucho más rápida que los discos rígidos en incluso que los SSD, así que este proceso de leer del disco, escribir en la RAM, ejecutar la tarea, y borrar de la RAM, sucede cada vez que ejecutamos algo, y de hecho casi todo el tiempo en que los programas abiertos estén realizando tareas, por lo tanto un SSD nos dará una velocidad de lectura mayor, lo que permitirá poblar la RAM más rápido, pero la mayor cantidad de los procesos que el CPU realice con los datos del programa serán hechos en la RAM y no en el disco rígido o SSD, eso incluye imágenes, audio y video, cuando más RAM tengamos más grande podrán ser los archivos con los que trabajemos o podremos trabajar con mayor cantidad de archivos al mismo tiempo. Por otro lado mucha RAM pero lenta no nos serviría de mucho, por lo tanto tambien debemos considerar ese factor, el cual es determinado por dos característica “clock speed” de la RAM medida en Hz, y CL (CAS Latency) que es el tiempo de demora y se mide en ms (milisegundos), generalmente aparecen en los datos de la RAM como CL9 para indicar 9ms o CL10 para indicar 10ms y así. A mayor velocidad de reloj mayor será la latencia, y eso incidirá en el precio, memorias de 2400Mhz con latencia 11 serán más baratas que memorias de la misma frecuencia pero con latencia 10, las cuales serán mucho más rápidas y por eso el precio abultado. A los 1600Mhz podemos encontrar latencias que van de 7 a 11 y en los 1866 latencias entre 8 y 13, un módulo de memoria con frecuencia alta como por ejemplo 2400Mhz pero con latencia tambien muy alta puede llegar a ofrecer la misma performance que una de 1600Mhz o 1866Mhz con una latencia muy baja, detalle a tener en cuenta a la hora de comprar. Por otro lado tanto el procesador como la motherboard (placa madre, o placa base) tienen en sus especificaciones técnicas una serie de frecuencias de memoria soportadas, si el procesador es capaz de controlar memorias de hasta 1600Mhz, ponerle al sistema una memoria más rápida que eso será considerado overclocking, por lo tanto la calidad de construcción y características de la placa madre serán el detalle más importante al usar esta configuración de memoria, ya que cuando mejor sea la mother se podrá encargar directamente de esos detalles con mínima o ninguna intervención por parte del usuario, recomiendo altamente el uso de placas madres Asus, ya que nunca en todos mis años de trabajar con computadoras he tenido problemas con ellas, y lo mismo aseguran muchos otros profesionales que las eligen a la hora de procurar estabilidad a sus sistemas. Por supuesto otras marcas de mothers como MSI, Gigabyte, EVGA o Asrock, pueden tener las mismas características que una Asus, pero siempre me inclinado a pensar que Asus ofrece la mejor calidad de componentes en sus placas madres de todo el mercado, lo cual impacta directamente con su durabilidad, estabilidad, y confiabilidad, de hecho hasta la más barata ofrece un mínimo de 5 años de garantía, más que cualquier otra marca en ese segmento de precios, en lo personal solo usaría placas Asrocks en sistemas cuyo principal fin sea ahorrar dinero, si bien no es una mala marca, definitivamente sus componentes son más baratos comparados con los de las otras marcas mencionadas.

En placas de video tenemos dos marcas que son las mayores fabricantes de GPU’s (Graphics Processing Units), AMD y Nvidia, parecido a la relación entre los CPU AMD e Intel, las placas gráficas basadas en chipsets (reglas de fabricación de circuitos para, en este caso, cada modelo de GPU o procesador gráfico) de AMD suelen consumir mayor energía eléctrica y liberar más calor, pero ofrecer mayor potencia de proceso a un menor costo monetario, cada marca presenta diferentes tecnologías de procesamiento gráfico, el más destacado de Nvidia en la actualidad es CUDA, se trata de una plataforma de computación paralela (como cuando hablábamos de procesadores multinúcleos) y modelo de programación, los programas que implementen esta tecnología pueden sacar más mejor provecho de placas Nvidia que de las AMD, como por ejemplo Adobe Premiere (editor de video), pero sin duda alguna lo más interesante de los procesadores CUDA de Nvidia es la capacidad de poder ser usadas para cualquier tarea computacional, y no solo las de tratamiento gráfico o de imagen, lamentablemente en el mundo del audio y la producción musical no existen muchas implementaciones optimizadas para funcionar en los núcleos CUDA de los procesadores gráficos de Nivida. AMD posee un tecnología denominada Mantle, que ofrece acceso de bajo nivel (eso significa acceso directo a los componentes de la tarjeta gráfica sin pasar por intermediarios como las API del sistema operativo) permitiendo mayores velocidades de trabajo y menores latencias a quienes hagan uso de esta tecnología, lamentablemente en la actualidad solo se ha implementado en juegos y no en software de productividad. Ambas marcas son capaces de usar tecnologías como DirectX, OpenGL y OpenCL, las dos primeras API’s (Application Program Interface) gráficas, utilizadas para presentar toda clase de gráficos en pantalla, pueden utilizarse para imágenes, videos, interfaces graficas de usuario, 3D, juegos, y todo lo que sea “dibujado” con pixeles en la pantalla, DirectX tambien ofrece extensiones de audio por lo cual es muy utilizado en la creación de juegos, pero nada impide que sea utilizado tambien para otros tipos de software. OpenGL y OpenCL son estándares abiertos, lo cual significa que una comunidad de programadores tiene libre acceso al código de los mismos y cualquier fabricante puede implementar estas tecnologías en sus productos, tambien cualquier persona tiene acceso a la comunidad que mantiene y actualiza esas tecnologías, por lo tanto se puede participar en su desarrollo si uno tiene conocimientos de programación. OpenGL es una API gráfica, y se usa principalmente para casi todo lo que se usa DirectX con la diferencia de que al ser abierto no hace falta pagar ni pedir permisos para utilizarla, algo similar pasa con OpenCL, aunque esa tecnología está más orientada al renderizado de gráficos en 2D y 3D. Las placas gráficas Nvidia suelen mostrar mejor performance en aplicaciones DirectX que las placas AMD, pero las placas AMD suelen obtener resultados muchísimo mejores en OpenCL que las Nvidia, superándolas 2 o 3 veces en la capacidad de procesamiento de esta tecnología. Por otro lado, los software de tratamiento de imágenes y video que ofrecen la posibilidad de renderizar por OpenCL tambien permiten hacerlo por CUDA si hay una placa Nvidia disponible, y en la mayoría de los casos los resultados de CUDA superan ampliamente a los de OpenCL. Así que debemos saber que tecnologías usan los programas y juegos que más usamos o usaremos, para saber qué tipo de placa gráfica conviene más a nuestras necesidades.

En el segmento Entry Level tenemos la línea GT de Nvidia, en los segmentos Consummer, Prosummer, Gamer y Enthusiast, Nvidia ofrece los modelos GTX de sus placas de video, mientras que para Workstations y servidores ofrece las Quadro y las Tesla. AMD ofrece las Radeon modelo R7 y R9 pasando por precios que van desde Entry Level a Enthusiast y diferentes modelos de FirePro para profesionales usuarios de Workstation o Servers.

Todas las marcas de notebooks poseen gama baja, media y alta, pero la gama “gamer” es totalmente aparte, y ofrecen siempre la mayor potencia, incluso más que otras marcas que dicen tener nivel “workstation”, que es básicamente lo que se dice de cualquier computadora Apple (iMac, Mac Pro, Mac Mini, MacBook, MacBook Pro y MacBook Air), se suele decir que los componentes internos de toda la línea Mac tienen nivel de Workstation y/o “nivel enterprise” lo cual no es cierto, internamente la calidad de los componentes es igual o tal vez un poco inferior a la de cualquier PC armada con componentes de marcas como Asus (placa madre), Intel (procesador), Kingston/Corsair (memoria RAM), Western Digital (discos rígidos) y Corsair/Kingston (SSD), en esta última categoría los que ofrecen mayor velocidad, confiabilidad y durabilidad son las líneas EVO y PRO de Samsung y la línea Neutron GTX de Corsair. Aunque la mayoría de los SSD son buenos (Corsair, Kingston, Adata, Crucial, Plextor, Mushkin, etc.) cada uno puede ofrecer velocidades de lectura y escritura diferentes, y los que vienen de fábrica con las Mac suelen ser más lentos que los disponibles en el mercado. Más allá de eso, cualquier cosa que haya adentro de una Mac salió de las mismas fábricas chinas de las que sale cualquier componente que se use en el armado de PC’s. Cada marca ejerce diferentes controles de calidad y tiene diferentes políticas, y en mi experiencia si bien el control de calidad hecho por Apple suele ser bastante exigente no lo es tanto como el de Asus, sin mencionar que los componentes (chips, integrados, transistores, diodos, resistencias, capacitores, inductores y las propias placas de pertinax) suelen ser más “baratos” que los que les exigen marcas como Asus y Corsair a las MISMAS fábricas.

La gran diferencia es nada más que estética, la MacBook Air por ejemplo tiene cuerpo de aluminio macizo cavado, es decir que no se usa un molde, sino que se talla (por decirlo de alguna manera) la forma de la MacBook Air. Esto infla bastante el precio, pero todo producto Apple agrega un “plus” que representa la forma en la que la gente ve a sus productos y a la marca, es decir que la mayor cantidad del precio de una Mac es valor agregado (estética, packaging, branding y lo que representan ante el imaginario colectivo), y no las características del producto en sí mismo.

Un núcleo es un procesador, o sea que cuando decimos procesador de cuatro núcleos estamos hablando de cuatro procesadores en uno. Siempre recomiendo usar procesadores de 4 núcleos o más, la mayoría de los programas y sistemas operativos actuales son capaces de paralelismo, es decir, el uso de más de un núcleo cuando la aplicación que se esté ejecutando no haya sido optimizada para ello. La diferencia entre un i5 de cuatro núcleos y un i7 de cuatro núcleos, es que el i7 tiene una tecnología llamada Hyper Threading que le permite usar cada núcleo para dos “hilos de procesos” simultáneos, básicamente es como tener un núcleo virtual extra por cada núcleo real, o sea 8 núcleos en total, 4 reales y 4 virtuales. El paralelismo es lo mejor a la hora de usar programas que requieran de muchos recursos y muchos procesos (lo que llamamos programas pesados). Mayor cantidad de núcleos de menor velocidad darán mayor velocidad de procesamiento en programas optimizados para usarlos, al contrario, los mismos programas se verán bastante ralentizados si la cantidad de núcleos es poca aunque la velocidad de los mismos sea alta, aunque procesos mononúcleo si mostrarían una mejoría de su performance en este escenario.

Los usuarios de PC estamos acostumbrados a poder intercambiar cada una de las partes fundamentales (placa madre, procesador, memoria RAM, placa de video, unidades de almacenamiento, fuente de alimentación, etc.) una a una cuando necesitamos una mayor potencia de proceso, mayor capacidad o velocidad de medios de almacenamiento o de la RAM, mayor potencia gráfica, o un cambio de plataforma (lo que dictamina que clase de procesador y memoria podemos usar).

Las Macs siempre se han caracterizado por ofrecer menos posibilidades en este departamento. Si bien la anterior versión de la Mac Pro permitía cambiar, actualizar o mejorar (como le quieran decir) algunos de sus componentes, el modelo actual solo permite cambiar RAM y unidad SSD (a través de un puerto mSATA PCIe) no permite cambiar la placa de video ni aumentar la cantidad de placas de video, siendo el máximo dos, cuando anteriormente era cuatro como la mayoría de las PC cuyas placas madres permiten configuraciones SLI (Nvidia) y/o Crossfire (AMD). Los usuarios de Mac aseguran que se pueden conectar cualquier clase de dispositivos a través de los puertos Thundervolt, una especie de reemplazo para USB y FireWire ideado por Intel, y capitalizado por Apple, pero que aún no ha logrado llamar la atención ni de profesionales ni de usuarios comunes, quienes solo han usado este puerto para unidades de almacenamiento externas como discos rígidos portátiles, aun cuando pueden usarse hasta para conectar placas de video y monitores, los cuales siguen utilizando conectores DVI, HDMI o DP (DisplayPort). Y si, en el futuro podrán conectarse placas de video a través un cable “tipo USB”. Aunque Thundervolt no es exclusividad de Apple y cualquier fabricante puede implementarlo, al día de hoy las placas madres de las marcas más renombradas ofreciendo este tipo de conectores (o puertos) pueden contarse con los dedos de una mano, por dos razones, primero la poca adopción tanto del público y por consecuencia de los fabricantes de productos tecnológicos, y segundo, el riesgo que representan. Los puertos Thundervolt proveen a dispositivos externos la capacidad de conectarse a puertos PCIe (PCI Express) internos de la computadora, los cuales a su vez se conectan directamente al procesador, y así es como ha nacido el peor virus de Mac y a su vez el peor virus de la historia. Cualquier dispositivo que use Thundervolt e incluso el propio cable puede modificarse para contener código que sea ejecutado directamente por el procesador de la computadora ignorando al sistema operativo, si bien esto puede ser algo bueno para los fabricantes de hardware que sean honestos, ese código podría ser malicioso (lo que comúnmente llamamos virus) y de hecho, ya se ha hecho, el virus afecta solo a Macs con puertos Thundervolt y al contagiarse no puede ser removido de la Mac ni formateando ni reinstalando el sistema operativo, ya que se encuentra en partes internas no accesibles por el usuario ni por el propio sistema operativo, de hecho, el virus se ejecuta incluso antes de que el sistema operativo pueda iniciar. Obviamente las posibilidades de contraerlo hoy en día son muy muy bajas, pero aun así es uno de los desastres de seguridad más grandes de la historia. Por otro lado existen muchos virus de Mac, todas pueden contraer virus, ya que los virus son programas, generalmente pequeñas porciones de código, pero son ejecutables, y el sistema operativo es incapaz de diferenciar si son maliciosos o no, la razón de que sean menos frecuentes en Mac que en Windows, es que en realidad Windows es el sistema operativo más usado en todo el mundo, miles de millones de computadoras usan versiones viejas y modernas de Windows todos los días, y es relativamente sencillo para alguien con conocimientos de programación crear virus para esa plataforma, derivando en que la falta de interés de creadores de virus y software malicioso de crearlos para Mac se debe a la pequeña porción del mercado que estas representan comparadas con Windows. En este momento se podría aclarar que software malicioso sería cualquiera que realice tareas que el usuario no solicitó, tanto Windows como Mac OS X son plataformas de código cerrado, y los contratos de los programadores que trabajan en ellos tienen cláusulas de no-divulgación, aun así se puede rastrear que procesos de nuestro sistema operativo están transmitiendo información a través de internet y ver tambien a que IP o URL dirigen esas transmisiones, lo cual nos lleva a que ambos sistemas operativos realizan maniobras de “data harvesting”, o sea, coleccionan información de sus usuarios que luego es utilizada para “emplazamiento de productos”, significando que la información es “vendida” a diferentes empresas que la utilizan para crear perfiles de nuestros hábitos de consumo, lo cual puede convertirse en dinero cuando logran mostrarnos publicidades acordes a nuestros intereses, ya que otras empresas pagan para que esa publicidad sea efectiva, es decir que cause en los usuarios un click o una compra, estás empresas pagan un porcentaje menor por cada visualización efectiva y uno mayor por cada click, hasta ahí lo de publicidad, pero en algunos extremos se trata de empresas asociadas (programas de partnering) que tambien pueden pagar por cada compra realizada.

Considerando lo anterior, estas porciones de código de los mencionados sistemas operativos tambien pueden llegar a considerarse maliciosos, desgraciadamente el sistema de software cerrado no permite corroborar el código y sin eso no se puede tener pruebas para iniciar acciones legales, ya que se escudan en el copyright y otras licencias privativas, el famoso contrato de licencia de usuario final que todos aceptamos sin siquiera leerlo cada vez que instalamos algo. Existen dos paradigmas de programación que pueden librarnos de estos códigos maliciosos, uno es el free software (software libre) y el otro es el open source (software de código abierto) sin bien cada modalidad tiene características diferentes ambas permiten leer el código de los programas creados con esas filosofías, por lo tanto la existencia de códigos maliciosos dentro de programas oficiales (no virus) puede ser corroborada por usuarios con conocimientos de programación, ninguno de estos programas posee código malicioso, ya sea por filosofía o porque comunidades de programadores independientes a la marca, fábrica, o creadores del software, se encargan de revisar cada línea de código. Dentro de estas categorías podemos encontrar sistemas operativos como GNU, Linux y BSD, en los cuales el código abierto también permite la existencia de muchas versiones diferentes llamadas distribuciones (abreviado distros) mantenidas por diferentes comunidades, y todo el software que viene con ellos o que se puede conseguir para ellos sigue los mismos lineamientos de las filosofías madres por las cuales fueron creados, aunque también existen de los que llamamos mixtos, los cuales contienen software de código cerrado, y son una solución para quienes dependen de algunas tecnologías que solo existen en formato cerrado, como Adobe Flash, o algunos codecs de audio y video.

Las notebooks no gamer permiten cambiar los discos rígidos, o reemplazarlos por unidades SSD, y la memoria RAM. Las notebooks gamer en cambio pueden ofrecer aparte de las opciones anteriores la de cambiar placa de video (o placas, algunas poseen dos aún en el pequeño espacio que ocupan) y en casos extremos también permiten el reemplazo del procesador.

Asus y MSI ofrecen las mejores notebooks gamers del mercado. Asus por la calidad de sus componentes internos, muy superiores de los de cualquier Mac. MSI por otro lado puede llegar a ofrecer múltiples SSD (hasta 4) en configuraciones RAID 0 (es una forma de interconectar unidades de almacenamiento que permite doblar o triplicar la velocidad de las mismas), doble placa de video interconectadas por SLI (la tecnología de Nvidia que permite a dos o más de sus placas trabajar como una duplicando la potencia), y teclados mecánicos en su modelo tope de gama, son los mejores teclados para quienes tipean mucho, sean programadores o escritores, y por lo tanto también para quienes hacen uso intensivo de las teclas (gamers), poseen pulsadores del tipo Cherry MX, considerados como los mejores disponibles.

En las notebook Apple en cambio se puede cambiar poco y nada. Recordando que el cuerpo de la MacBook Air es de aluminio macizo, es imposible de abrir, y por lo tanto imposible cambiar nada de lo que tenga adentro. Otras pueden permitir cambio de unidad de almacenamiento o de unidad óptica, pero no mucho más. Se debe a lo que llamamos obsolescencia planificada. Es decir, los productos Apple están diseñados para ser usados por una determinada cantidad de años para luego generar la necesidad en el usuario de un reemplazo que sea mejor, más potente, o más rápido, de hecho pueden actualizar el software de las Mac sin consultar ni pedir aprobación al usuario o pueden cancelar todas las actualizaciones de los productos viejos, quedando como única opción comprar una nueva. El componente que llegará primero al final de su vida útil es la batería, la cual no se puede reemplazar en una computadora que no se puede abrir, solo hay dos maneras de reemplazarla, comprando una nueva computadora, o enviándola a Apple para que sea reemplazada, para lo cual la compra de la misma tiene que haber sido a través uno de sus canales oficiales, y haber comprado junto con ella la garantía extendida que ofrecen bajo el nombre “Apple Care”. Pueden negarse a reemplazarla en computadoras viejas para las que ya no ofrezcan mantenimiento ni soporte técnico o que no tengan o haya vencido su plan de Apple Care. La batería en una notebook gamer y en cualquier otra notebook es el componente más fácil de reemplazar. El servicio técnico de Apple y su servicio de atención al cliente, si es que tenés que hacer uso de alguno de ellos, son los peores que existen, sus técnicos no son técnicos, son incapaces de responder cual es la velocidad de la unidad SSD que se ofrece con el último modelo de Mac Mini o cual es la resolución máxima de monitor soportada por su placa de video. La mayoría del personal de atención telefónica de Apple solo son entrenados en ventas y están más interesados en vender una Mac que en ayudarte.

La Mac Mini 2012 permitía comprarla con un procesador i7 de notebook con 4 núcleos, disco rígido de 500GB y memoria de 4GB de 1600Mhz, siendo la única parte no actualizable de las mencionadas precisamente el procesador, así que se podía tener una Mac por un precio razonable y reemplazar la RAM por 16GB de memoria de 1600Mhz y el disco rígido por una unidad SSD. Con esos cambios al hacer los testeos de potencia daba números superiores a los de algunas iMacs, así que era un buen negocio. Cada modelo siguiente fue permitiendo hacer menos cambios, hasta llegar al modelo 2014, la cual solo se ofrece con i5 de doble núcleo, no se le puede cambiar la RAM ya que está soldada a la placa madre (o placa lógica, como la llama Apple) y el disco rígido se encuentra en un lugar casi inaccesible que requiere de un desensamble total de sus partes para poder acceder a él y reemplazarlo por un SSD. Apple no quiere que sus usuarios actualicen sus Macs porque quieren que cuando necesites más de ellas compres una nueva o directamente convencerte de que compres una más cara desde el vamos. Cada cierta cantidad de años Apple realiza actualizaciones masivas de todo su software incluyendo sistema operativo, lo cual vuelve obsoleto cualquier modelo viejo, podés seguir usándolo con el software que ya tiene instalado, pero no podés instalar nuevo software nunca más, ya que el nuevo es incompatible con el sistema operativo viejo, y peor aún el software viejo tampoco funciona con el sistema operativo nuevo, obligándote a volver a comprar las nuevas versiones de esos programas aunque ya habías pagado por ellos en tu anterior Mac. Se puede evadir esto realizando una maniobra conocida como “Jailbreak” (escaparse de, o romper, la cárcel), la cual cancela las prohibiciones que el sistema operativo ejerce para que todo el software instalado provenga de la Apple App Store y no de otras fuentes. Es viable pero hacerlo rompe con la filosofía que la mayoría de los usuarios de Apple suelen tener, básicamente sería “hackear una mac”. Lo más curioso es que los fundadores de Apple se llamaban a sí mismos hackers, y durante esa época sus publicidades hacían ver que sus productos eran para quienes rompían las reglas, de un tiempo a esta parte las publicidades de Apple solo demuestran que tan tontos Apple cree que son sus usuarios, basta con prestarles atención para darse cuenta que sus productos estás destinados a gente poco inteligente y con mucha plata. Lo que me lleva al injustificable inflado precio de las Macs, las PC de gama más alta con exactamente los mismos componentes internos de una Mac salen menos de la mitad que esa Mac, o dicho en otras palabras gastar el dinero que sale una Mac en una PC te da el doble (o más) de potencia y calidad que te da una Mac de ese precio. Y por último, PC es una norma inventada por IBM e Intel con ayuda de Microsoft, el nombre completo es PC IBM Compatible, llamada así por el hecho de que con esta norma cualquier fabricante puede crear componentes compatibles con la misma y los usuarios u otras empresas pueden armar computadoras compatibles con la norma usando esos componentes. Cuando las Macs usaban procesadores Motorola 68000, y luego IBM PowerPC, eran totalmente incompatibles con la norma PC, al pasarse a procesadores Intel, se volvieron en automáticamente compatibles, prueba de ello es la posibilidad de instalar Windows en una Mac a través de lo que Apple llama Bootcamp, pero al hacer esto, lo que en realidad hizo Apple es crear computadoras PC IBM Compatibles, y venderlas bajo el nombre Mac sin decirles a los usuarios que en realidad son PC’s pero con una etiqueta de precio injustificadamente elevada. Otra prueba de que las Macs son PC’s, es que se puede armar una computadora con componentes de PC de las marcas que ya estuve mencionado, e instalarle Mac OS X, a estas computadoras se las llama Hackintosh, obviamente por la palabra hack, y porque Mac es abreviación de MacIntosh, llamadas así por un tipo de manzana, supuestamente la mejor, por otro lado el logo original de Apple era Newton debajo de un árbol de manzanas. Y un dato totalmente irrelevante, el primer PDA (personal digital assistent, intentos de tablet muy anteriores a la primera tablet exitosa) de Apple se llamaba Newton, y aparece en Los Simpsons demostrando uno de los más grandes problemas de toda la historia de Apple, incluso la actual, el reconocimiento de escritura, Nelson escribe Beat Martin (golpear a Martin) con su lápiz stylus en su Newton y este último interpreta Eat Marta (comer a Marta), aún hoy la frase es usada dentro de Apple, cada vez que hablan de arreglar el autocorrector del iPhone dicen “comer a Marta”. Apple tampoco inventó las tablets, el iPad es muy posterior a las primeras tablets que aparecieron, aunque sin duda si fue el primer producto en este formato en ofrecer una experiencia de usuario satisfactoria a través de su sistema operativo. Cada producto Apple fue copiado de algo que existía antes, tanto en funcionalidad como diseño y apariencia estética. Solemos decir que no es una empresa innovadora o creativa sino una empresa de fórmulas (o pociones, o recetas), que añade un poco de esto, un poco de aquello, y te convence de que lo inventaron ellos. Sin mencionar que hay gente con tanto “engagement” con la marca que está dispuesta a pagar cualquier suma de dinero por lo que sea que la empresa largue al mercado. Estéticamente Apple lleva años copiando antiguos diseños de la marca Brown, basta buscar en Google algunas fotos para encontrar las similitudes.

Con respecto a la temperatura que levantan los componentes de las computadoras, el intercambio de electrones siempre provoca liberación de energía en forma de calor, de luz o de ambas. Cuando más potente es un componente mayor calor liberará, eso se soluciona con buenos sistemas de enfriamiento, los hay por aire, por líquido (con agua y radiadores, como los autos), y en los casos más extremos por aceite mineral, que son las computadoras sumergidas que parecen peceras. Si una computadora no libera calor se puede deber a dos razones, a su baja potencia, o a tener un sistema de enfriamiento totalmente eficiente, lo cual es imposible ya que temperatura habrá, el hecho que no la sintamos es otra cosa, por ejemplo, volviendo a la MacBook Air, un cuerpo de aluminio macizo, o actúa como el mejor disipador de calor del mundo, o no permite que sintamos el calor producido por los componentes internos debido a que la transferencia de calor es mínima o inexistente, o a que el grosor del aluminio evita que el calor llegue a atravesarlo completamente, pero definitivamente el calor tiene que estar ahí adentro si es que se trata de electrones moviéndose, y de eso se trata la electrónica, o en última instancia está laptop es menos potente que una Chromebook y por eso casi no genera una cantidad de calor perceptible por el ser humano.

Me veo en la obligación de aclarar que mis dos últimas computadoras fueron PC’s y ambas me duraron 5 años teniéndolas prendidas las 24 horas del día, algunas personas me han dicho que sus MacBooks solo les duraron dos o tres años con muchas horas menos de uso diario a las que yo les doy a mis computadoras.

Últimamente me han hecho reflexionar sobre el rol de la tecnología, la cual debería ayudar al ser humano y facilitarle las tareas para las que se la pretenda usar, los usuarios de Apple más inteligentes con los que he hablado han destacado el hecho de que para usar una computadora tipo PC con Windows (o Linux) como sistema operativo como lo hago yo, durante 5 años de uso continuo 24 horas diarias, sin un solo cuelgue ni error de compatibilidad de hardware ni de software, se necesitan conocimientos que no todo el mundo tiene el tiempo, la paciencia, capacidad o disponibilidad para adquirir, y que si el rol de la tecnología es facilitar y no complicar, es mucho más viable un sistema que no ponga a sus usuarios en la obligación de adquirir conocimientos para un uso satisfactorio de los mismos, el famosos “conecte y use”, haciendo una analogía con la serie de ciencia ficción Star Trek, el avance tecnológico debería permitir que manejar una nave espacial no sea una tarea que requiera haber completado carreras equivalentes a las de Ingeniería en Sistemas o en Electrónica, ni ser experto en Física Cuántica, debería ser algo más parecido a como actualmente se maneja un auto. La postura de pagar de más, por esa tranquilidad de que el uso no requerirá de conocimientos que no poseo, y la facilidad y sencillez me permitirán hacer directamente lo que quiero sin ninguna clase de preámbulo ni complicaciones, me resulta similar a la de quien compra una consola de videojuegos de última generación por las mismas razones, sin importarle que el hardware que las mismas poseen en su interior no son la ULTIMA tecnología, sino más bien tecnología de hace varios años atrás, e invertir esa misma cantidad de dinero en una PC personalizada para precisamente lo mismo, que sería jugar, si nos dará componentes que representen la tecnología disponible actualmente en los mercados, con una potencia varias veces mayor a esas consolas, y una compatibilidad con una gama mucho más amplia de juegos, y a una computadora de esas características se le podría conectar cualquier clase de monitor, de cualquier cantidad de pulgadas, y hasta 6 monitores simultáneos formando paneles aún más grandes que algunos televisores actuales, y con la placa de video adecuada se podrían usar resoluciones de 4K sin problemas, y si alguien menciona que la exclusividad de los títulos (cuando un juego sale solamente para una consola) es excluyente a la hora de decidirse por un sistema de juegos (consolas o PC), la mayoría de esos títulos dejan de ser exclusivos luego de un año de su estreno, ya que una versión de PC de los mismos sale tarde o temprano, y aun así, Windows posee una mayor cantidad de títulos exclusivos que todas las consolas sumadas, ya que muchos juegos solo funcionan sobre Windows y no en consolas. Pero si toda esa comodidad que mencioné antes, es lo más importante para vos, tanto que no te importa cuánto dinero tengas que desembolsar para tenerla, entonces adelante, compra una Mac (o PlayStation o Xbox).

La mejor computadora es aquella que tengas ahora mismo y que te permita hacer aquello que intentas hacer, o la mejor que puedas pagar, o aquella que te parece más cómoda o más sencilla. Sea cual sea tu prioridad, la cual podría ser que lo haga más rápido, o que lo haga mejor, con mejores resultados o de una manera más eficiente, un punto de equilibrio entre la calidad del resultado obtenido y la velocidad con la que fue logrado, o que llegar a ese resultado sea más sencillo y sin complicaciones ni imprevistos, la mejor computadora es simplemente aquella que te parece mejor o la que más te gusta. Yo, hoy, elijo PC con Windows (o Linux).

Aclaraciones

No admiro al creador de Linux, es más, creo que siento lo contrario a la admiración, no sé si me desagrada más Linus Torvalds o Steve Jobs, no, creo que más Steve Jobs.

Linux es solamente el kernel (núcleo) del sistema operativo, es un conjunto de instrucciones que hacen que todo ande, y el encargado de comunicarle al hardware lo que el software quiere hacer. La mayoría de las aplicaciones que la gente llama Linux (como sistema operativo no como kernel) pertenecen al proyecto GNU, que es un proyecto de sistema operativo completamente abierto creado por Richard Stallman bajo la filosofía del “free software” (tambien creada por Stallman). Así que Linux (como sistema operativo) debería ser llamado GNU/Linux, que se lee GNU con Linux (sistema operativo GNU con kernel Linux). Hay otros kernels pero Linux funciona bien y por eso es tan usado. A quienes admiro son a Ken Thompson y a Dennis Ritchie, creadores del lenguaje de programación C y del sistema operativo Unix, en el cual están basados casi todos los sistemas operativos modernos (GNU, GNU/Linux, BSD, FreeBSD, OpenBSD, NetBSD, Solaris, SunOS, Mac OS X, etc.) excepto Windows.

También por un tiempo admiré a Gary Kildall, creador de CP/M, el sistema operativo del cual Seattle Computer Products se copió para hacer el QDOS, que luego fue comprado por Microsoft, reescrito, y renombrado MS-DOS. Y admiro a Bill Gates, fundador de Microsoft. Pero Steve Jobs y Linus Torvalds siempre me cayeron mal. Y también me cae un poco mal Andrew Tanenbaum, creador de Minix, un sistema operativo basado en Unix que “inspiró” a Linus Torvalds a crear su propio kernel y más tarde llamarlo Linux.

Así que los padres de lo que hoy en día la gente llama Linux son Richard Stallman y Linus Torvalds, y los abuelos serían Ken Thompson y Dennis Ritchie. Admiro a Stallman, a Thompson, a Ritchie y a Gates, me desagradan Torvalds y Jobs, no siento admiración por Kildall pero lo respeto, y Tanenbaum no me desagrada, pero tampoco lo respeto del todo.

Ninguno de los padres de GNU/Linux usan Ubuntu (basado en Debian) ni Debian, Linus Torvalds usa Fedora, que deriva de Red Hat, y Richard Stallman solo usa distribuciones GNU/Linux que sean 100% libres. Que son las que figuran en esta lista:

https://www.gnu.org/distros/free-distros.html

Si te gusta lo que lees considera contribuir con este blog para que el mismo pueda tener más y mejor contenido. Contribuir.

Licencia Creative Commons
Esta obra de Juan Pablo Castañeda está bajo una Licencia Creative Commons Atribución 3.0 Unported.

Opinión sobre el fanatismo

Al despertar esta mañana y entrar a YouTube encuentro que una persona que conozco había subido un video, y lleno de intriga me puse a verlo, trataba sobre la opinión de una persona que estimo sobre el fanatismo, y no pude más que abrir Word y ponerme a escribir una respuesta con todos los pensamientos que en ese momento cruzaban por mi mente.

Mi respuesta

Definitivamente así como hay fanáticos de algún deporte, o deportista, o artista, o actividad en particular, tambien puede haber anti-fanáticos de todas esas cosas pero, como bien dijiste, tambien hay aquellos que son anti-fanáticos del fanatismo en sí, curiosamente un anti-fanático que defienda tanto su postura como lo hace alguien que es fanático de algo, es definitivamente, un fanático. Fanático de su propio anti-fanatismo. Lo mismo que los ateos o agnósticos obsesionados con su filosofía de vida que siempre andan buscando algún religioso con quien discutir, ellos practican eso en lo que creen con el mismo fanatismo que lo hacen aquellos a quienes desprecian precisamente por ser así. Del mismo modo, podríamos hablar del fanatismo de algunos vegetarianos y veganos, como sea, hablamos de extremos, ese extremo en el cual tu vida depende de demostrar a los demás lo equivocados que están. Algo con lo que me he sentido cómodo gran parte de mi vida, ya que suelo ser el primero en expresarme elocuentemente para demostrar que el otro está equivocado cuando estoy seguro de que lo está. Solía hacerlo todo el tiempo, y aún lo sigo haciendo, solo que con menor frecuencia de antes. Definitivamente nos vamos moviendo hacía posturas que nos permiten una mejor convivencia con nuestro entorno. Podemos hablar de calidades en la composición o interpretación de determinada pieza, y claro, si comparamos a ese nivel, músicos de gran fama hoy en día se quedan chicos antes los grandes del pasado. Pero al parecer, antes que el sentido crítico que nos permite juzgar el virtuosismo de un intérprete o compositor, está algo que a veces solemos olvidar que ahí está, el gusto, a la gente puede gustarle cualquier cosa sin tener razones para eso, seguramente si pudiéramos analizar psicológicamente a cada uno, encontraríamos ciertas predisposiciones para desarrollar determinados gustos, pero para lo que estamos hablando hoy, eso no viene al caso, ya que estamos tratando de expresar que no está mal que te guste algo aunque ese algo sea criticado de falta de profesionalismo, falta de calidad, de inventiva, de virtuosismo, o de lo que sea, por personas que supuestamente saben de lo que hablan, ya que cuando algo te gusta, no se trata de poder explicar el por qué te gusta, y todos sabemos que la mayoría fracasarían al explicarlo, ya que el “ay! porque es tan lindo!” no es un argumento válido cuando lo que se analiza es su música y no su apariencia física. Pero nuevamente se trata de tu gusto, algo que ya tenés formado, y nada de lo que yo diga podrá cambiar tu opinión. En esos casos se suele hablar de pasión, algo que todavía sigo sin entender, soy una persona que carece totalmente de eso que llaman pasión, me ha tocado hablar con personas que terminan diciéndome frases como “¿un argentino que no le gusta el mate?” o “¿un hombre que no le gusta el futbol?” entre otras, la mayoría de las personas parecen no ser conscientes de la enorme cantidad de personas que viven en este planeta, ni de la propia “enormidad” del planeta mismo, ni de las distancias, ni de la diversidad que puede existir en un mundo tan vasto, si tu reacción es esa al hablar con alguien como Nahuel o como yo, especialmente cuando hablamos de nuestros gustos musicales, entonces, ¿no estás siendo tan “cerrado” como aquellos que alguna vez te dijeron que tu música o tus creencias eran una mierda?, se trata de tolerancia, no quiero discutir si lo que a mí me gusta tiene una calidad musical superior que a lo que vos te gusta, seguramente esa sea mi opinión, pero no lo voy a decir para empezar una discusión con alguien que no está dispuesto a cambiar la suya solo porque alguien más se lo diga, de hecho, yo no cambiaría la mía, soy lo bastante consiente de que lo que me gusta es algo que quiero disfrutar todos los días, y no porque alguien me diga que la música clásica o Sonata Arctica, o Iron Maiden son una mierda, voy a dejar de escucharlos para empezar a escuchar a Justin Bieber o a Arjona. Bien, si podemos llegar a esa conclusión por nosotros mismos, no nos queda otra que aceptar que los fanáticos de Bieber o Arjona no dejarán de serlo sin importar que tan científicas sean las pruebas de que su música es inferior y que hay cosas mucho mejores, porque no se trata de una competencia sobre quien escucha mejor música, se trata de gustos, y sobre gustos no hay nada escrito. Bueno, de hecho si lo hay, pero el refrán quiere decir que te puede gustar cualquier cosa, incluso lo que a otras personas puede parecerles repugnante, y eso no está mal, no está mal que te guste, está mal que quieras imponérmelo porque mi juicio es diferente al tuyo, y no vas a lograr cambiarlo solo porque creas que lo tuyo es mejor que lo mío, así como yo tampoco lograré cambiarte a vos. Ya que no hay una manera de medir o pesar los gustos, si realmente disfrutamos de lo que nos gusta no nos detenemos a pensar si es técnicamente correcto o si la letra dice realmente algo o repite 20 veces la misma palabra, o si fue grabado en un mega estudio o en la casa de un amigo de la banda.

Hablando de youtubbers, sí, es totalmente ridículo adorar a alguien que lo único que hace es prender una camarita y hablar frente a ella, puedo admirar a alguien que le ha hecho una buena producción a su video, tanto en el guion, como en la imagen y el sonido, pero no adorarlo, eso sería realmente ridículo, porque como vos dijiste, son personas normales, como vos, como yo, como Jesús el que está ahí. Sobre criticarlos porque lucran con lo que hacen, mm, primero y principal, ¿está mal ganar dinero por algo en lo que te esforzás?, segundo, no ganan tanto, lo que te puede dar YouTube puede llegar a ser muy poco, el propio sistema impide que sea mucho, para cobrar un “sueldo” subiendo videos a YouTube, primero tenés que hacerles ganar mucha plata a ellos, entonces ellos te dan un pequeña parte de lo que ellos ganaron en “agradecimiento”, y eso solamente si tus videos tienen millones de visitas, por menos de eso, el cheque que te llega de Google ni vale la pena levantarse de la cama para hacer otro video, sin duda alguna muchos lo hacen porque les gusta. Por otro lado, algo que si te da, es una fanbase, es decir, gente que te sigue, y que acepta tus consejos, o adopta tus modas o modismos, y eso tiene valor para otras empresas, el product placement, tus fanáticos usarán aquello que usas, y les gustará aquello que a ti te gusta, o por lo menos las cosas que recomiendas en tus videos, siempre pueden estar siendo pagados para decir o mostrar tal cosa, aunque quienes son honestos con la gente que los sigue, si bien aceptan el dinero de la empresa les ofrece con intenciones publicitarias, suelen hacerlo con cosas que realmente les gusta, así que no están mintiendo, solo están viviendo de lo que les gusta hacer, lo mismo que los músicos, si no podés vender tu música, ganar derechos de autor por ella, ni vender entradas a tus recitales, ¿de qué vivís? Grabar un disco cuesta muchísimo dinero, ¿vas a gastar esa suma cada año, o cada año y medio para no ganar nada a cambio? Algunos si lo hacen, sus bandas son tan pequeñas que tienen que moverse de barrio en barrio tocando donde sea para vender una remera o un CD, para poder comprar la nafta para ir al siguiente barrio. Y eso no los hace ni más ni menos artistas. Así como tampoco ganar millones con su música hace menos artistas a otros, podés decir que no te gusta, y exponer las razones del por qué no, seguramente comparándolos con lo que si te gusta, pero están viviendo de su música, mm, si, algunos tienen fama injustificada, o al menos, injusta, algunos son productos creados intencionalmente para provocar fanatismo y lucrar con eso, pero otros han llegado a donde están con esfuerzo, y siendo músicos de verdad, sin importar que tan mal toquen, si encuentran gente a la que le gusta lo que tocan, ya está, ya tienen fans, y ya pueden vivir de eso.

Sobre guitarristas, el propio Kurt Cobain, y esto es algo que he dicho muchas veces, y tambien mucha gente ya lo sabe, él dijo “prefiero ser el peor de los mejores y no el mejor de los peores”. Y si, no vas encontrar complejidad melódica, ni armónica en las composiciones de Nirvana, pero algunas cosas, y lo digo por experiencia propia, si tienen cierta complejidad rítmica, no mucha, pero puede resultar complejo, si ya pasaste esa etapa, tocar y cantar al mismo tiempo las canciones de Kurt no es difícil, pero más allá de eso sin duda alguna la parte más destacada de su música está en las letras, en su opinión o en lo que expresan, aun cuando al leerlas puede que no encuentres aquello que te gusta encontrar en una letra, tenés que ubicar en que ámbito fueron escritas, que sentimientos expresan, sin duda alguna se puede decir que fue un adulto interesante por tener una infancia complicada. E incluso sabiéndolo puede no gustarte su música, por ser tan diferente a lo que te gusta, en lo personal si he escuchado Nirvana en una época de mi vida, pero lo dejé al poco tiempo al encontrar cosas que me iban gustando más, y al aprender a disfrutar de ciertas complejidades, algo que no todo el mundo puede llegar a hacer, a algunos les gustan las cosas sencillas. En cuanto Guns n Roses, Slash, y Axl Rose, considero que si bien puede agradar a la misma clase de público a la que le gusta Nirvana, Bon Jovi y AC/DC, sí tienen una mayor complejidad musical que la que tiene Nirvana, aunque no tanto como Deep Purple, y podríamos estar nombrando bandas todo el día, pero quiero hacer énfasis, en que hay gente que no nota mayores diferencias entre Guns n Roses, Bon Jovi, Nirvana AC/DC y Led Zeppelin, encuentran diferencias pero las minorizan, en cambio para nosotros son bandas totalmente diferentes que no se parecen en nada, y si bien yo no creo en los géneros musicales, creo que la música es música, es decir, si suena bien está bien, y la gente suele englobar a las bandas que recién mencioné dentro de lo que llaman Hard Rock, para mí, de la forma en como yo, mi mente, o mis oídos perciben la música, podría clasificar a cada una de ellas en géneros musicales totalmente diferentes uno del otro, porque las diferencias que percibo son mayores, tanto como para necesitar otro sistema de clasificación, si es que estuviera preocupado por catalogar a la música que escucho para que todo tenga un orden de sucesión y un nombre basado en como suenan y sus diferencias con otros.

Entonces, hay gente con oídos menos exigentes que otros, que solo porque lo que escuchan se parece en una o dos cosas, ya las ubican como de la misma familia o rama del rock, cuando nosotros, por la forma en la que escuchamos la música, notamos esos cientos de detalles con nos hace sentirlas como lo suficientemente diferente para negarnos a aceptar que tienen una raíz común. Y no vamos a hablar de la evolución del rock, porque hay algunos fanáticos dispuestos a discutir fervientemente para defender aquello en lo que creen, pero me ha tocado en el pasado, descubrir que lo creen viene de una revista o libro que leyeron cuando eran adolescentes, si, de una sola fuente, ninguna opinión puede estar más cercana a la realidad que otras si está basada en una sola fuente, hay que obtener mucha más información de muchas fuentes diferentes, para contrastar y sopesar todo conocimiento que adquiramos y formar con ello una opinión que podríamos defender ante alguien que posea los mismos conocimientos que nosotros pero que haya formado una opinión diferente a la nuestra. Por eso no me interesa clasificar la música bajo un sistema de géneros ni discutir sobre ello para ver cuál clasificación es más acertada que otras. Tratándose de música, quiero escucharla, y disfrutarla, aunque en mi caso disfrutarla podría ser debatir con mis amigos sobre determinadas decisiones en la composición, grabación, edición, mezcla y masterización, o sobre el significado de las letras, porque me gusta conversar con gente que tiene diferentes opiniones a las mías, eso me obliga a activar mi cerebro para defender mis posturas, y esos procesos mentales pueden llegar a demostrarme a mí mismo que estaba equivocado en lo que creía, y terminar dándole la razón a mi amigo, o aún mejor, llegar a una conclusión que contradiga a ambas posturas, la de mi amigo y la mía antes de llegar a esa conclusión, eso es algo que personalmente disfruto mucho. Pero entiendo que puede haber mucha gente a la que eso le parezca una ridícula pérdida de tiempo y de esfuerzo, y que eligen vivir sus gustos a través de la pasión más que a través de la razón. Y la pasión es inexplicable, como dije antes, con un acceso directo a la mente y al pasado de esa persona si podría terminar explicando su pasión, pero eso no cambiará el hecho de que su pasión sea totalmente irrazonable, es decir, que por mucho que razone con él no va a cambiar su pasión, porque proviene de algo más profundo que la razón, de hecho puede haberla heredado de sus padres, ¿y cómo cambiar aquello que una persona ha creído durante la totalidad de su vida? Una tarea demasiado complicada para una sola persona, una sola opinión, y una sola razón, si en algún momento de su vida fuera a cambiar por algo que sea todo lo contrario a lo que ahora le gusta, será por haber adquirido muchos conocimientos nuevos, por haber hablado con muchas personas diferentes con diferentes opiniones, y por haber leído muchas fuentes diferentes que lo lleven a razonar su propio fanatismo, encontrar las razones del mismo, y encontrar que estaba equivocado y reemplazarlo por una nueva pasión que sea más adecuada a la persona en la que se ha convertido. No todo el mundo es capaz de un proceso semejante, es más, diría que la mayoría sería incapaz de hacerlo durante lo que dura una vida.

Si te gusta lo que lees considera contribuir con este blog para que el mismo pueda tener más y mejor contenido. Contribuir.

Licencia Creative Commons
Esta obra de Juan Pablo Castañeda está bajo una Licencia Creative Commons Atribución 3.0 Unported.

Detalles a tener en cuenta para el sonido de bandas en vivo

(Tan solo algunos consejos para los no iniciados en el tema)

Lo que llamamos sonido consiste de, la persona que lo maneja, y su equipamiento, que son, mixer/scrossoverspotencias y bafles (puede ser un sistema separado en grupo de agudos, y grupo de graves, más monitores de escenario, o sistemas más complejos con separación de agudosmedios y graves, más diferentes grupos de monitoreo para cada miembro de la banda). El mismo también debería proveer los micrófonos, con sus respectivos cables (o inalámbricos), hay músicos que prefieren usar un tipo de micrófono en particular (cantantes: Shure SM58 Beta 58, guitarristas: Shure SM57 para microfonear su amplificador), pero la gran mayoría ni se preocupa por eso, solo les importa tocar y que “el del sonido” se encargue de que suene bien.

Lo mínimo que lleva un músico a un evento, es su propio instrumento, o varios en algunos casos (hay guitarristas que tocan con tres o más guitarras diferentes a lo largo de su show). En el caso de las guitarras y bajos eléctricos, estos requieren de amplificadores específicos para guitarra y bajo, hay músicos que enchufan su instrumento a lo que haya sobre el escenario, otros prefieren viajar con su propio amplificador, porque, además de sus efectos (pedales y/o racks), el “ampli” es tan parte de sus sonido como su instrumento. Los bajos, además, al igual que las guitarras “electro-acústicas” (o “electro-criollas” en caso de cuerdas de nylon) y teclados, pueden ser conectados directamente a la mesa de mezclas (consola/mixer) del sistema de sonido. Guitarras criollas, clásicas, flamencas, acústicas, y la gran mayoría de los instrumentos acústicos (pianos, violines, saxos y otros vientos, instrumentos de percusión, etc.) deben ser microfoneados, lo cual es responsabilidad de la persona que maneja el sonido, por lo tanto se le debe informar de los “requisitos de microfoneado” (cantidad de miembros de las bandas y los instrumentos que tocan) para que vaya preparado con el equipo necesario. En el caso de amplificadores de guitarras y bajos eléctricos, existen músicos que prefieren monitorear su señal directamente de estos, cuando son de tamaño “pequeño” o “mediano” son microfoneados para obtener la señal que llega al público, el músico se escucha a si mismo por su amplificador o a través de los monitores de escenario. Hay quien viaja con amplificadores de los que llamaremos “de gran tamaño” (alta potencia), el sonido de estos puede llegar directamente al público, sin necesidad de microfoneado, aunque se los puede microfonear a pedido del músico y combinar el sonido directo de estos con el que llega a la mesa de mezclas a través de los micrófonos.

El gran dilema siempre en un evento en el que participan bandas, es la batería, por empezar las cualidades acústicas de este instrumento hacen que produzcan sonido de gran volumen, aun así, pueden requerir de microfoneado dependiendo de las características del lugar donde se toca, el otro problema que suele presentar este instrumento es su gran tamaño y dificultad para transportarlo. Nuevamente, siempre hay músicos que prefieren tocar con sus propios instrumentos, pero hay muchos bateristas que se limitan a viajar solamente con sus platos, fierros (soportes para platillos) y baquetas (palillos), o escobillas, o varillas, dependiendo del género musical. La solución es que una de las bandas participantes ofrezca su batería para que quede armada fija en el escenario (y ya microfoneada, si así se requiere), para que sea utilizada por los diferentes bateristas que participen en el evento, los cuales agregarán sus fierros y platos, y acomodarán estos y las otras partes de la batería a su forma particular de tocar. La otra posibilidad es alquilar una batería para tal fin (ya afinada, para ahorrar tiempo). Si se opta por usar el “método” de batería fija (la mejor opción solamente si la mayor parte de las agrupaciones participantes usan este instrumento), debería haber fierros extras disponibles para aquellos bateristas que solo viajen con sus platos.

En el caso de que el lugar donde se realice el evento conste con sonido propio, se deben coordinar todas estas cosas con la persona encargada del mismo, algunas bandas (casi ninguna, pero se puede dar) viajan con su propia “persona de sonido”, que ya conoce sus temas y sabe la mezcla apropiada para cada uno de ellos, o la mezcla general de toda la banda para sonar en vivo.

Puede pasar que el hecho de que cada banda suene bien, dependa de la buena comunicación, la buena onda, y el buen trato con la persona encargada del sonido. Si el músico sabe lo que quiere y como pedirlo, esta persona puede ayudarlo a obtenerlo con su experiencia y conocimiento, mediante la mezcla, y con sus equipos, si el músico no maneja el “lenguaje” que esta persona utiliza, es mejor que lo deje hacer su trabajo, y que no lo irrite con peticiones molestas, irrazonables, o inentendibles, después de todo, él conoce el equipamiento con el que trabaja, y en el mejor de los casos, también conoce el lugar y la “acústica” del mismo.

Lista de canales para sonido en vivo

Canal Instrumento Micrófono Efectos
01 Bombo Beta 52 Gate/Comp
02 Redoblante SM57 Gate/Comp
03 Hi-Hat SM81
04 Tom 1 Beta 98/Beta 56 Gate
05 Tom 2 Beta 98/Beta 56 Gate
06 Tom 3 Beta 98/Beta 56 Gate
07 Overhead L SM81
08 Overhead R SM81
09 Bajo DI Comp
10 Guitarra eléctrica SM57 Comp
11 Guitarra acústica DI Comp
12 Vocalista Beta 58 Comp
13 Coro 1 SM58 Comp
14 Coro 2 SM58 Comp
15 Teclado L LINE
16 Teclado R LINE

Gate: Compuerta de ruidos
Comp: Compresión

Detalles

Estos son los datos para una banda promedio, con batería, bajo, guitarra eléctrica, guitarra acústica, un cantante, un teclado, y que dos de sus miembros hacen coros. Para una banda con este formato se necesita como mínimo una consola mezcladora de audio de 16 canales.

Todos los micrófonos que aparecen en la lista son marca Shure, pero el del sonido puede decidir qué tipo de micrófonos usar para cada instrumento, si condensadores o dinámicos, o que marca y modelo usar dentro de los que disponga o los que considere adecuados.

La batería en este caso se encuentra totalmente microfoneada, aunque el encargado del sonido puede decidir prescindir de algunos micrófonos o agregar más. En este caso se usó un único Shure SM57 para el redoblante, pero una configuración habitual es usar dos, uno para la parte de arriba y otro para la parte de abajo. El tom 1 sería el tom agudo, el 2 el medio, y el 3 el grave, también llamado tom de piso o chancha, aunque la lista recomienda usar Beta 98 o Beta 56 para ellos, también pueden usarse SM57. Los overhead son micrófonos que van por encima de la batería y pueden ser ubicados en dos configuraciones, la primera para registrar el sonido de los platos (el hi-hat, los splash, los crash, los china, y los ride) para lo cual, en este caso, se usan dos mics, uno para los de la izquierda (L) y otro para los de la derecha (R). La otra configuración común de los overhead es obtener una imagen estéreo del sonido global de la batería. Para esta tarea se suelen utilizar condensadores de tipo cilíndrico (tanto en vivo como en estudio) o condensadores de diafragma grande (utilizados con mayor frecuencia solo en estudio debido a su gran sensibilidad al sonido).

El bajo y la guitarra acústica están pasados a la consola de mezclas a través de cajas directas (DI), aparatos diseñados para “estabilizar” la señal (eliminar voltajes e interferencias no deseadas) de estos instrumentos, aunque también pueden ser conectadas directamente por línea (LINE) a la consola, lo que significa conectarlos directamente por cable, pero por la impedancia de estos instrumentos, especialmente del bajo, se suele usar siempre DI para su conexión.

El amplificador de la guitarra eléctrica está microfoneado con un Shure SM57.

La señal del teclado es estéreo (L y R) y va directamente por línea a la consola.

Si alguna banda no trae sus propios amplificadores para tocar, deberá haber algunos disponibles para ellos sobre el escenario, los cuales pueden ser alquilados por el tiempo que dure el evento.

Dependiendo de la cantidad de guitarristas que tenga la banda se necesitará un amplificador de guitarra eléctrica para cada uno de ellos, es recomendable que tengan una potencia de entre 40 y 100 watts, dependiendo de las características y tamaño del lugar donde se toque, a mayor cantidad de público es necesaria más potencia. Si el bajista también necesita amplificador, por lo general usan amplis cuya potencia puede ser de entre 100 a 400 watts o más, pero si la señal del bajo será enviada a la consola de mezclas por línea o por DI, puede no hacer falta un amplificador para este instrumento, el bajista se escucha a sí mismo a través de los monitores de escenario, a menos que solicite uno porque le es más cómodo monitorear su sonido y controlar su ecualización a través de un ampli, en ese caso se puede usar uno cuya potencia puede ser incluso inferior a los 100 watts pero es esencial que disponga de salida directa balanceada tipo canon (XLR) para conectarlo por cable a la consola de mezclas.

Algunas recomendaciones de amplificadores para sonido en vivo

Transistorizados:
Peavey TransTube (cualquier modelo de entre 40 y 120 watts)
Marshall MG (cualquier modelo de entre 50 a 100 watts)

Híbridos:
Marshall Valvestate I (cualquier modelo de entre 40 y 80 watts)
Marshall Valvestate II (cualquier modelo entre 65 y 100 watts)
Marshall AVT (cualquier modelo de entre 50 y 150 watts)

Nacionales:
Roller (cualquier modelo entre 50 y 150 watts)
Nativo (cualquier modelo entre 45 y 100 watts)
Wenstone (cualquier modelo entre 50 y 160 watts)
ElectroVox (cualquier modelo entre 40 y 100 watts)

Para bajo se puede usar cualquier amplificador de las marcas anteriormente mencionadas cuya potencia sea de entre un mínimo de 60 watts a un máximo de 500 watts (entre 100 y 400 recomendado), con salida de línea balanceada.

Otras marcas de amplificadores que se pueden tener en cuenta son Hartke, Crate y Laney.

Si te gusta lo que lees considera contribuir con este blog para que el mismo pueda tener más y mejor contenido. Contribuir.

Licencia Creative Commons
Esta obra de Juan Pablo Castañeda está bajo una Licencia Creative Commons Atribución 3.0 Unported.