sábado, 30 de julio de 2011

EL BLOG DE GD CONSULTORA (www.gdconsultora.com.ar): Los mejores artículos de la web por GD Consultora ...


  1. ¿Qué estrategia debo usar para mi negocio?
  2. 20 pistas para iniciar tu negocio
  3. ¿Qué son las Creencias Limitantes?
  4. Resolución de Conflictos en el Trabajo
  5. Los principales errores a la hora de presentarse ante los inversionistas
  6. Educación emprendedora. ¿Cómo se origina el temor al fracaso en usted y en sus hijos?


EL BLOG DE GD CONSULTORA (www.gdconsultora.com.ar):

viernes, 29 de julio de 2011

¿Qué es un PLE?

Alguna definiciones sobre el concepto de PLE ( Personal Learning Environment.)


Jordi Adell mapea el concepto de PLE: Personal Learning Environment.





Definiciones de entorno de aprendizaje personal (PLE)



PLE es











Fuentes: youtube.com, slideshare.net, slideshare.net, eduentorno.blogspot.com

PyMEs Argentinas, un 96% de las que piden financiamiento para proyectos productivos lo consiguen

El 96% de las PyMEs industriales que gestionaron un préstamo para desarrollar un proyecto productivo tuvieron éxito y pudieron financiarse tanto en los bancos públicos como en los privados, según una encuesta realizada por la Secretaría PyME (Sepyme) del Ministerio de Industria de la Nación, que dirige Débora Giorgi.

"Hoy en Argentina las PyMEs ven multiplicadas las opciones de financiamiento blando, pero fundamentalmente todas vislumbran oportunidades de crecimiento, buscan producir más, porque saben que van a vender más", indicó la ministra en un comunicado.

Destacó también que "fue este gobierno el que impulsó al sistema financiero a mirar como un cliente a la pyme. Por eso, mientras el financiamiento bancario se incrementó en un 289,3%, entre 2003 y 2010, hasta llegar a los $122.000 millones, el destinado específicamente a las pymes subió un 465,7% en ese período".

"Así, en el último año, el empresariado PyME encontró en el sistema bancario 44.000 millones de pesos en créditos", detalló.

La demanda de créditos se dio en un contexto en el que nueve de cada diez PyMEs aumentarán o mantendrán las inversiones proyectadas para este año, según muestra el estudio.

Con respecto a las ventas, el 40% de las PyMEs industriales consultadas aumentó la cantidad de unidades vendidas en el segundo trimestre del año con respecto al igual período de 2010, mientras que el 34% mantuvo el nivel.

En cuanto a las ventas por regiones el informe consigna que la región del Noreste Argentino (NEA) se ubicó sobre la media nacional, con un 51% de las PyMEs que registran incremento de las ventas reales con respecto a 2010, contra 43% de la región pampeana, 28% las de Patagonia y Cuyo y el 23% el NOA.

En cuanto a la percepción empresaria sobre la situación del país, el 73 por ciento de los consultados manifestó que en este año está mejor o igual que en 2010.

En tanto que, para todo 2011, el 30% de los empresarios estima que su rentabilidad será mayor que en 2010.


Fuente: telam.com.ar

jueves, 28 de julio de 2011

Que es y como implementar un tablero de control

El Cuadro de Mando Integral es una herramienta popularizada por Robert Kaplan y David Norton y se trata de un tablero de Control con los indicadores esenciales de una actividad divididos en cuatro agrupaciones (Finanzas, Cliente, Personal y Procesos Internos)



El objetivo del tablero de control es que sea posible ver la evolución de los indicadores esenciales para nuestra pyme, ser consientes de donde se encuentra nuestra empresa y si nos estamos o no acercando a nuestros objetivos.

Para que el Cuadro de Mando sea realmente útil es prioritario saber hacia dónde deseamos ir como empresa. Es decir, conocer nuestros objetivos y como vamos a lograr los mismos, en otras palabras la estrategia detrás del negocio. Una vez identificada la estrategia debemos determinar los indicadores correctos que nos permitan “medir” si nos estamos aproximando o no a nuestros objetivos.

Como mencionamos anteriormente los indicadores a incluir en el Cuadro de mando se agrupan en cuatro áreas esenciales:
  • Finanzas: aquí encontraremos los indicadores esenciales para controlar que nuestro estado financiero es el deseado, según nuestros objetivos y estrategia. 
  • Cliente: indicadores esenciales sobre nuestra relación con el bien más preciado que podamos tener. 
  • Personal: indicadores relacionados con la gestión del personal de la empresa, por ejemplo: horas de capacitación al personal, costos de personal, etc. 
  • Procesos Internos: o aquello a lo que realmente se dedica nuestra actividad, ya sea que nuestra empresa fabrique algún producto, sea principalmente de distribución o servicio siempre debemos identificar los aspectos claves de forma tal de poder controlar el rendimiento de nuestros procesos. 
¿Cómo se implementa un tablero de control en la pyme?

A continuación presentamos 5 pasos para implementar un cuadro de mando en la pyme.

1. Determinar la estrategia de la empresa: es decir, antes de nada, saber que deseamos conseguir y como vamos a hacer para conseguirlo. A partir de determinar nuestros objetivos y la actividades necesarias para alcanzarlos debemos identificar los puntos y tareas claves que son necesarias realizar para alcanzar cada uno de los objetivos.

Por ejemplo parte de la estrategia de la empresa puede ser fidelizar la actual cartera de clientes de la empresa. Una de las tareas claves para fidelizar nuestros actuales clientes es mejorar el servicio que le damos a los mismos

2. Clasificar: Una vez que identificamos cuales son las claves de nuestra estrategia debemos dividirlas en los cuatro grupos que mencionamos anteriormente. Si la estrategia está lo suficientemente elaborada y clasificada, no deberíamos tener problemas en este paso (si no lo tiene muy claro podemos probar a la inversa, partiendo de la división cuádruple, pensar en los puntos clave de la estrategia de su pyme en referencia a sus Finanzas, Clientes, Personal y Procesos Internos).

En nuestro caso de ejemplo fidelizar a los actuales clientes claramente cae dentro del cuadrante Cliente del trablero de control de nuestra pyme.

3. Convertir las claves en objetivos: es decir haga esa estrategia tangible y real, si su plan financiero es no endeudarse demasiado, establezca un objetivo para ello, pero que sea real y posible, y que sean consensuados por los implicados en dichos objetivos.

Siguiendo con nuestro ejemplo de fidelizar a los actuales clientes. Un posible objetivo en línea con nuestra estrategia es mejorar el servicio prestado a los actuales clientes

4. Definir los indicadores más adecuados para los objetivos de su pyme y elija los valores deseados para esos indicadores. Es decir, debemos identificar que vamos a medir y los valores a alcanzar.

Para nuestro caso si estamos evaluando el servicio al cliente un indicador puede ser el tiempo de respuesta a reclamos y el objetivo puede ser responder en menos de 24hs.

5. Iniciar el procedimiento de seguimiento y análisis: En este etapa debemos centrar nuestros esfuerzos en relevar los procesos y tomar los datos que identificamos en el punto anterior. Con los datos en mano debemos analizar como nos encontramos respecto de nuestro objetivo y las acciones que debemos tomar para mejorar lo que hasta el momento hemos realizado.

Para continuar con nuestro ejemplo debemos monitorear cuanto tiempo insumimos en dar respuesta a los reclamos de los clientes y analizar aquellos casos donde demoramos mas que las 24hs que tenemos como objetivo

¿Actualmente controla los aspectos esenciales de su actividad? Si no es así, debería pensar en implantar un Cuadro de Mando y evaluar cuan bien esta ejecutando su estrategia. 

Por CONRADO MAGGI on SEPTEMBER 29, 2010


Fuente: re-ingenia.com

El descubrimiento del cerebro (entrevista a Julio González)

Nuestro planeta ha generado unos seres curiosísimos, inéditos en cualquier otra parte conocida. Esos organismos extravagantes que se mueven por sí solos, duplican e intercambian sustancias con el medio, están dotados de una propiedad especial que llamamos comportamiento que emana de un sistema nervioso pilotado por un cerebro.
Julio González Álvarez. Breve Historia del Cerebro. Editorial Crítica.

La primera corazonada generalmente admitida fue la de Aristóteles, que apuntaba al corazón como sede de las pasiones y los pensamientos. Ese órgano latente, que distribuye por el cuerpo la savia de la vida, parecía un buen candidato para hacerse con las funciones superiores de director de la orquesta de un organismo extremadamente complejo y milagrosamente articulado y coordinado entre sus distintas partes, para hacerse cargo de la acción diaria de sobrevivir. A Aristóteles le precedió en el tiempo y en la valoración de ubicación de la sede de aquello que por entonces se llamaba, a falta de otra denominación más precisa, alma, el médico primero reconocido en su profesión: Hipócrates. Este tenía bien claro que esos efluvios inmateriales que ahora llamaríamos consciencia, mente o qualia, según el nivel de análisis, provenían en su totalidad de una sustancia grasosa, pulposa y grisaceorosácea escondida en la cavidad craneana, en lo alto –y como sabemos ahora por los conocimientos de evolución, frontal-del cuerpo. Pero sus escritos, probablemente retocados y parcialmente pertenecientes a múltiples “negros” de su escuela, no trascendieron más allá de las cuatro sustancias corporales según las cuales se entendía entonces que se equilibraban el cuerpo y su salud: bilis, bilis negra, flema y sangre. Parece que la flema se acumulaba en el cerebro.

Galeno, médico romano de origen griego que ejerció la medicina durante la época de esplendor del Imperio, atendiendo de paso a los Emperadores, hizo algunas vivisecciones con animales, si bien el sagrado cuerpo humano, aún estando fallecido, no fue tocado, que se sepa, por sus manos. Una larga Edad Oscura sucedió a este médico, el Medioevo, en la que no hubo avances reseñables en el conocimiento de la anatomía , habiendo el cuerpo humano adquirido un carácter sagrado todavía más pronunciado, por la cristiandad, que entre los profanos romanos. Lo que imperó en las Escuelas médicas, y de cualquier otro área, fue la veneración a la figura de Aristóteles, y también la de su maestro Platón, considerados la fuente de toda la sabiduría existente y alcanzable.

La Alta Edad Media dio paso a la Baja Edad Media y esta al Renacimiento. Tímidamente se ponían en cuestión desde diversos ámbitos los conocimientos adquiridos a través de la lectura de los clásicos y se comenzaba a investigar directamente a la naturaleza, de forma experimental. Para sorpresa de estos primeros científicos experimentales, que no charlatanes repetidores cual loros de los textos sagrados (eclesiásticos o científicos) resultaba que las leyes que regían la naturaleza no siempre coincidían con las expuestas en los manoseados libros de los lejanos y mitificados sabios.


A partir de entonces se empezó a perder el respeto a lo más sagrado, y personajes como Vesalio metieron sus manos en los cuerpos de humanos fatalmente fallecidos, para extraer de ellos el oro del conocimiento anatómico. Comenzaba entonces la anatomía científica.

Después de esta brevísima y naturalmente incompleta introducción no querría extenderme más de lo necesario. La historia de la neurociencia, es decir, la historia de cómo el ser humano ha ido descubriendo el cerebro, primero como centro del sistema nervioso, luego en sus distintas localizaciones funcionales y enfermedades, y finalmente en su evolución, está muy clara y amenamente expuesta en el libro del autor que hoy ha tenido la amabilidad de concedernos una entrevista: Julio González, Profesor de Psicología del Lenguaje, en la Universidad Jaume I de Castellón. En “Breve Historia del Cerebro” nos traza un mapa funcional de nuestro órgano más importante, así como un mapa de la historia de cómo hemos ido descubriéndolo y comprendiéndolo, señalando en cada punto del camino o bifurcación importante los hitos principales que han permitido avanzar hasta nuestro actual (aunque aún incompleto) conocimiento del cerebro. Personajes como los arriba señalados o Willis, Gall, Flouriens, Broca, Hughlins Jackson, Ferrier, Wernicke, Golgi, Cajal, Sherrintong, Adrian,Hodking, Huxley, Dale, Loewi, Kandel, Damasio y un largo etcétera desfilan por sus páginas para ilustrar cómo sus vidas (casi plenamente) dedicadas a la investigación han dado, y siguen dando, frutos en el conocimiento del cerebro.

Les dejo con Julio, cuyas respuestas tengo la certeza de que les harán aprender y pensar.

1.-Su libro Breve Historia del Cerebro es un apasionante relato de la historia de la ciencia del cerebro, no una del cerebro propiamente dicho, la cual debiera ser mirada, por tomar la expresión de Dobzhansky, a la luz de la evolución. De la Historia de la Neurociencia es esta-si no nos equivocamos- la primera publicación en castellano, ¿Le atraería la perspectiva de hacer lo propio con la historia del cerebro? Por otro lado, ¿Podría señalarnos –por supuesto muy brevemente, dado lo diabólico del detalle- los grandes hitos de la historia natural de ese nuestro órgano generador de conductas adaptativas?

Básicamente estoy de acuerdo con Dobzhansky al entender que las cosas en Biología solo cobran su verdadero sentido a la luz de la evolución. El cerebro es un órgano biológico de una complejidad extraordinaria; solo lo comprenderemos realmente –si eso ocurre alguna vez– considerándolo desde una perspectiva evolutiva.

Tiene razón al precisar que mi libro es en realidad una historia sobre la ciencia del cerebro –de hecho, ese fue un título que consideré inicialmente. Mi formación de base es la de psicólogo cognitivo, pero confieso que alguna vez he acariciado la idea de ofrecer una visión integradora del cerebro en su historia evolutiva, intentando mostrar las ventajas adaptativas que han ido ofreciendo las distintas transformaciones, y sin perjuicio de magníficos libros ya publicados como la traducción del de Morgan Allman (El cerebro en evolución, Ariel).

Entender el cerebro es tanto como entender la vida. ¿Es esta un experimento singular –monstruoso, diría Paul Davies– de la naturaleza en esta esquina de la Vía Láctea? ¿Es, al contrario, un imperativo cósmico que florece allí donde se dan ciertas condiciones? Y si es así, ¿cuantas formas podría adoptar, teniendo en cuenta que criaturas tan distintas como una medusa o un humano tuvieron un origen común y comparten los mismos materiales básicos? No sabemos si conceptos como animal o vegetal, sexo, ojos, cerebro, o incluso un ADN replicante, son principios de cierta universalidad o hechos provincianos y fortuitos de este ensayo particular y quizá irrepetibles.

Tal como sucedieron las cosas en este planeta, los cerebros surgen porque los recursos tienen una distribución irregular. De hecho, hay algún animal que al pasar a una etapa sésil de su vida, literalmente autodigiere su propio cerebro porque ya no lo necesita. Los cerebros crean algún tipo de representación del entorno que permite al organismo navegar en él y establecer predicciones, lo cual es una buena noticia para su supervivencia. En muchas especies, la presión evolutiva ha favorecido la complejidad para ensanchar estas predicciones en el tiempo y en el espacio, confiriendo ventaja sobre otros. Si hubiera que señalar dos grandes hitos evolutivos, uno sería el paso de un sistema nervioso reticular y difuso como el de los celentéreos, a un sistema centralizado y cefalizado con los gusanos; el otro sería la excrecencia de un neocórtex cada vez más abundante y complejo en ciertos mamíferos, entre ellos los humanos.

2.-La historia de la neurociencia (y de la psicología) está plagada de corrientes pseudocientíficas enormemente perniciosas. La más famosa quizás sea la frenología, en la que se realizaba una extracción de conclusiones categóricas y concluyentes sobre las personas y sus personalidades a partir de datos y evidencias claramente insuficientes. Dado que las actuales técnicas –por ejemplo las de neuroimagen- son mucho mejores que aquellas de las que se disponía en la época de auge de la frenología, cabría esperar que no se repitiesen errores tan graves. Sin embargo la resolución de estas técnicas sigue siendo claramente muy pobre, como admite por ejemplo el Profesor Frith. ¿No existirá el riesgo de que repitamos la historia (en este caso de la neurociencia) a la hora de extraer conclusiones demasiado rápidas y fáciles a partir de estudios basados en estas nuevas técnicas? ¿Qué opina, por ejemplo, de los estudios de neuroimagen en los que se evalúan las capacidades de toma de decisiones según el perfil político de los probandos?

Creo que son cosas distintas. La historia de la ciencia está plagada de ideas que resultaron falsas o insuficientes; muchas de las actuales se cuestionarán en el futuro y eso forma parte del devenir científico. Lo que realmente separa a la ciencia de la pseudociencia no es la sofisticación de los instrumentos, sino el método, la actitud básica de honestidad intelectual; la diferencia entre observar los hechos, aunque sea con medios rudimentarios, o retorcerlos e ignorarlos para que prevalezcan tus ideas preconcebidas. El problema de la frenología –y por eso se la califica de pseudociencia- no fue tanto creer que la forma y los bultos del cráneo reflejaran los rasgos psicológicos del individuo –podría ser una pregunta legítima en el siglo XIX–, sino el hecho de no contrastar esta hipótesis con un método mínimamente riguroso y objetivo, manipulando las observaciones para que encajaran en esa creencia, seleccionando unas y omitiendo otras de modo interesado.

Las técnicas actuales de neuroimagen y electrofisiológicas suponen una nueva ventana de observación, aunque en algunos aspectos sean técnicas de trazo grueso. Las imágenes por resonancia magnética funcional (IRMF) tienen una excelente resolución espacial pero muy pobre resolución temporal porque dependen de una respuesta hemodinámica; las técnicas de potenciales evocados y lamagnetoencefalografía tienen una buena resolución temporal e intentan combinarse con las anteriores. Al mismo tiempo, están surgiendo nuevas técnicas que permiten estudiar los tractos de fibras de la materia blanca y su conexión funcional; es decir, desde el punto de vista instrumental, hay un progreso imparable, otra cosa es si nuestra comprensión del cerebro avanzará al mismo ritmo. Y esto conecta con la última cuestión. Hay cada vez más estudios que hallan diferencias funcionales en variables independientes de muy alto nivel de abstracción, como incluso la orientación política. Estos hallazgos, si son metodológicamente rigurosos –es decir, que las muestras poblacionales difieran solo en la variable pretendidamente estudiada– son valiosos desde una perspectiva de ciencia básica y abren nuevos caminos para explorar. Otra cosa son las extrapolaciones “salvajes” que, a partir de un pequeño fragmento de ciencia, se realizan al presentar generalizaciones mucho más globales que no se infieren necesariamente del estudio original, pero se amparan en él para darle seriedad científica. Esto lo hemos visto muchas veces, y a ello se añade la exageración, la torpe simplificación o el efecto amplificador que aportan algunos ámbitos extracientíficos, muchas veces con fines interesados (a continuación viene el curso o el programa de entrenamiento, etc.); esto, desde luego, roza claramente la pseudociencia. Hoy se le pone el prefijo “neuro” a cualquier cosa y ya gana “caché” científico.

3.-El cerebro ha resultado ser un microcosmos poblado con miríadas de distintos neurotransmisores. ¿Cuántos se conocen a día de hoy? ¿En qué se diferencian unos de otros? ¿Cuáles son los más importantes?

Bueno, esa pregunta debería responderla un especialista en ese campo, al menos en el detalle. Lo cierto es que la lista de neurotransmisores no cesa de crecer y los mecanismos de su acción se conocen mejor en unos que en otros. Esto es una buena noticia por sus derivaciones aplicadas en la psicofarmacología. No obstante, lo verdaderamente interesante será desvelar las funciones y las complejas interacciones que entablan los circuitos neuronales asociados a un determinado neurotransmisor (subsistemas dopaminérgicos, serotoninérgicos, etcétera)

4.-Aparte de los estudios estadísticos sobre cambios en la conducta y en la salud, ¿qué se sabe realmente de los efectos que tienen en el cerebro los nuevos psicofármacos? ¿Podría estar incurriéndose con alguno de ellos en un riesgo desconocido a largo plazo? Pese a su mayor precisión a la hora de dar en las dianas neuronales, ¿Son balas mágicas de Ehrlich o más bien un fuego a discreción que, milagrosamente, da en ocasiones en el blanco?

En los años cincuenta se descubrió el primer psicofármaco con efectos genuinamente antipsicóticos –la clorpromazina– y supuso una revolución en la neuropsiquiatría. Una serendipia inesperada que surgió probando nuevos tratamientos para la malaria con sustancias colorantes, porque el ejército japonés había cerrado el acceso a las zonas de quinina, en la Segunda Guerra Mundial. El mecanismo de su acción no podía explicarse en detalle, pero sus sorprendentes efectos estaban ahí y permitió mandar a casa a miles de enfermos mentales –no curados, pero sí aliviados. Luego vendrían nuevas generaciones de neurolépticos más específicos y con menos efectos secundarios. Hoy se conocen en detalle la acción de algunos psicofármacos al nivel celular y sináptico, en términos de receptores y recaptadores neuroquímicos, etc. pero muy poco a un nivel de descripción superior, en el plano de las redes neuronales. Entre otras razones, porque tampoco se conocen los mecanismos íntimos de muchas de las enfermedades o cuadros tratados. En cuanto a los riesgos, nada hace pensar en un riesgo especial más allá del que podría entrañar todo nuevo tratamiento. Lo importante es que se cumpla la legislación y todos los protocolos que esta establece.

5.-Perdóneme esta declaración arrebatada: debo reconocerme cajaliano empedernido. Para usted, que en su libro señala la importancia dada a Cajal por otros autores, ¿Qué representa Cajal en la ciencia española, en la neurociencia y en la ciencia mundial?

Basta con hojear cualquier manual internacional. Muchas veces se ha dicho, con razón, que Cajal ocupa el Olimpo de los grandes de la Ciencia, más allá del terreno de la neurobiología. Su contribución, además del valor de sus propias observaciones, sentó las bases de la neurociencia moderna. El sistema nervioso pasó de ser una maraña incomprensible de filamentos –procesos, se les decía– a un conjunto relativamente ordenado de neuronas individuales conectadas de determinados modos y en el que, gracias a su principio de polarización dinámica, se pudo empezar a establecer circuitos identificando el sentido y el camino del flujo nervioso. Es de esas aportaciones que tienen efectos multiplicativos en el futuro y suponen un salto cualitativo en la ciencia.

6.-En su libro mira a los hechos del pasado de la neurociencia. Permítase una pequeña especulación sobre el futuro: ¿Cree que se avecina algún grandioso descubrimiento o incluso un cambio de paradigma en las ciencias del cerebro?

El estudio del cerebro, o más exactamente el de su relación con la mente y la conducta, lleva un serio retraso respecto a la biología y otras disciplinas afines. Aunque son muchos los avances, no ha habido aún un descubrimiento grandioso que suponga todo un punto de inflexión en la comprensión global del problema mente-cerebro. Dale Purves lo reconoce así en un libro muy reciente (Brains. How they seem to work, Pearson, 2010): no tenemos en nuestro terreno algo equivalente a la evolución o al genoma que tiene la Biología; un gran principio que nos sirva de guía.

Así que está por llegar un gran hallazgo en esa dirección; ¿cuando?, ¿cuál?

El hecho de que unos circuitos eléctricos, que en última instancia son intercambios de iones a través de una membrana, dé lugar a una sensación (y no digamos ya a una consciencia) no casa con ningún principio físico conocido. A veces comparo nuestra situación actual, y sé que algunos quizá lo consideren exagerado, al de Isaac Newton si tuviera en sus manos un aparato de TV en marcha. El pobre, pese a su talento, se vería desarmado con el paradigma mecánico de su época: habría de esperar a un nuevo paradigma, el electrónico, para entender su funcionamiento. Quizá nos pase algo parecido y tengamos que esperar a otro paradigma (¿cuántico quizá?, quién sabe). A un nivel más modesto desde el punto de vista epistemológico, seguro que los avances van a ser muchos en el corto y medio plazo y habrá una profundización importante en nuestro conocimiento de cómo funcionan determinados circuitos y subsistemas más accesibles. También son seguros avances muy valiosos en el campo aplicado, como la sofisticación y desarrollo de nuevas técnicas de exploración, la regeneración de algunas lesiones; el control cerebral de dispositivos mecánicos, nuevos implantes sensoriales, y un largo etcétera.

7.-¿Qué grandes avances se están produciendo en el estudio de la psicología y neurociencia del lenguaje, en el que está usted plenamente inmerso? ¿Qué hay, neurológicamente más allá de las áreas de Broca, Wernicke y el fascículo arqueado que las conecta?
Estamos empezando a comprender que, incluso, en la simple lectura de una palabra, además de las áreas clásicas del lenguaje, se implica el cerebro en su totalidad con la participación orquestada de muchas otras zonas lejanas. Compartimos la teoría de Friedemann Pulvermüller del MRC de Cambridge –por otra parte, colaborador en un par de trabajos conjuntos– de que las palabras corresponden a la activación de webs neuronales formadas por millones de neuronas fuertemente interconectadas entre sí y que entrarían: 1) en un proceso rápido de “ignición”, en torno a una ventana de tiempo de 200 milisegundos, y 2) se mantendrían activas merced a circuitos reverberantes en su interior. Además, y esto es importante, esta red incorporaría información sensorial y motora como parte del significado de la palabra.

Esto no son meras elucubraciones de despacho, sino hipótesis surgidas de los datos, la mayoría obtenidos con las técnicas referidas. Por ejemplo, Pulvemüller observa que cuando alguien lee el verbo “to kick” (chutar) se le activan las partes del cerebro que mueven y sienten a las piernas, además de las lingüísticas; al leer “to kiss” (besar) se activan las zonas los labios y la cara; “to pick” (coger) activa las de las manos. Y no por simple imaginación posterior, sino de forma automática, rápida e inevitable; es decir, esta información corporal formaría parte del significado de esos verbos de acción. Nosotros, en la Universitat Jaume I de Castellón, con el equipo de César Ávila especialista en resonancia magnética funcional, y en colaboración con Pulvermüller desde Cambridge, hemos descubierto que al leer palabras como “canela”, “ajo”, o “jazmín” se activan parte de las estructuras cerebrales que procesan los olores reales, como el córtex piriforme y otras. Y al leer “sal” o “paella”, intervienen algunas estructuras del gusto, como la ínsula y zonas operculares. Parece que esta información de bajo nivel (sensorial) se incorpora y forma parte de la representación neural de las palabras y sus significados. Imagine que la primera vez que escuchó y aprendió la palabra “taza”, tal vez de su madre, se quemó con el chocolate caliente. Probablemente para usted, y esto es especulativo, el significado de “taza” incorpora zonas cerebrales que procesan la sensación de calor. Esto también es congruente con las Zonas de Convergencia y Divergencia de Antonio Damasio, o el llamado enfoque del Embodiment cognitivo, que está cobrando fuerza en los últimos años.

8.-¿Tiene alguna hipótesis sobre el origen y evolución del lenguaje? ¿Qué relación tiene, a su parecer, con la autoconsciencia y el yo?

El lenguaje humano es una extraña singularidad que no ocurre en ninguna otra función superior. Si existiera cierta continuidad como observamos en la inteligencia, la memoria, la capacidad de resolver problemas, la interacción social, etc., nuestros primos más cercanos, los chimpancés, usarían gramáticas rudimentarias con cientos de palabras o elementos léxicos equivalentes. Pero en todo el reino animal no hay nada que se le parezca ni remotamente, lo cual complica la vida a los psicolingüistas porque nos priva de otras referencias comparables y la posibilidad de experimentar con animales. Sobre su origen hay múltiples hipótesis y de cuando en cuando surge algún hallazgo que sugiere un origen más reciente del pensado, pero a día de hoy no hay nada concluyente al 100%. Desgraciadamente, nuestros antepasados no nos dejaron cintas de casette grabadas. En líneas generales, las hipótesis se alinean en torno a dos polos: las que hablan de un origen gradual y antiguo, del orden de varios millones de años, y las que defienden un origen mucho más reciente y relativamente abrupto, incluso por causa de una mutación como sugieren algunos. Personalmente me inclino por la primera, pero es una cestión abierta.

El homo sapiens tiene una extraordinaria facilidad para algo que, en general, no está al alcance de la mayoría de los animales: forjar una Teoría de la mente acerca del otro. Y, al mismo tiempo, construir representaciones mentales sobre situaciones no directamente visibles e incluso bastante lejanas en el tiempo o el espacio. Esto da ventajas evolutivas: puedes “ponerte en el lugar de” y predecir mejor la conducta del otro, lo cual es una mala noticia para él si se trata de una presa. Y puedes anticipar el futuro y actuar en este presente guiado por aquellas representaciones; harías cosas que ahora no tienen ningún sentido, pero sí dentro de unos días; es decir, planificar acciones que te harán la vida más fácil luego. Si ese futuro se pone feo tienes la partida ganada. Salvo ciertas especializaciones, los animales están anclados en el “aquí y ahora” y no prevén el futuro de modo flexible más allá de unos pocos minutos. Los chimpancés usan herramientas, como los palitos para las termitas; pero nunca les vemos preparar varios palitos para su uso futuro (hay alguna nueva observación en este sentido).

En todo este trasiego de representaciones mentales, seguramente el lenguaje supuso un poderoso instrumento que potenció esta capacidad de hacer presente lo ausente en el aquí-ahora, ofreciendo un segundo sistema de señales más abstracto y manejable. Asignar una etiqueta verbal a cosas y eventos, multiplica las posibilidades de hacerlos presentes mediante la manipulación de sus etiquetas, y abre el camino a la abstracción de las ideas y al concepto de sí mismo como mente en un cuerpo.

9.-¿En qué trabaja ahora? ¿Cuál es su mayor reto científico? ¿Cuál el misterio de los misterios que desearía fervientemente desvelar?

Bueno, junto a las cuestiones señaladas, estamos ahora en un Proyecto de Investigación I+D+i sobre Bilingüismo aplicando las técnicas de neuroimagen por resonancia magnética funcional. Concretamente, el análisis de cómo conviven dos vocabularios en un mismo cerebro sin apenas problemas e interferencias en su uso; de qué modo ambos códigos se mantienen separados funcionalmente en la corteza cerebral, dependiendo del grado de competencia en la segunda lengua y la edad de su adquisición. En cuanto al misterio al que alude, estaría muy bien que la comunidad científica desvelara al fin y con pruebas incontestables, cómo y cuándo apareció el lenguaje humano. Cuando esto suceda, será portada en Nature y/o Science como lo fue la secuenciación del genoma humano.


Aprovechar las casualidades como estrategia de marketing: Serendipia

"El azar no favorece más que a los espíritus preparados". Louis Pasteur.

Los cambios suelen sobrevenirnos y pillarnos desprevenidos. Tanto los buenos como los malos: la muerte de un ser querido, encontrar al amor de nuestra vida o cerrar una gran venta. La vida está llena de momentos inesperados desde incluso antes del momento de nacer, camino del óvulo de nuestra madre. 

¿No les sucede a veces que mientras buscan una cosa, acaban encontrando otra de igual o mayor valor (no necesariamente económico)? Se trata de la serendipia. Una serendipia es un descubrimiento o un hallazgo afortunado e inesperado. Como señala Guzmán López en su libro serendipity (alienta editorial, 2009): serendipity es el descubrimiento de algo valioso de forma accidental. 

Cristóbal Colón murió creyendo que había llegado a la India, equivocado en su empeño de buscar una ruta más corta para llegar a Asia. La idea inicial de la aspirina era utilizarla como antiséptico interno pero no acabó funcionando del todo. Los mismísimos post-it fueron inventados por un empleado de 3M utilizando un pegamento fallido que pretendía ser superpotente y acabó impregnando las hojas que utilizaba como marcadores de libro para que no se cayeran al suelo. Una manzana que para otros simplemente caía del árbol, sirvió para que se descubriera la fuerza de la gravedad. Una secretaria más bien torpe que tenía que reescribir constantemente los documentos en la máquina de escribir, hasta que se le ocurrió añadir pintura blanca a su esmalte de uñas para poder terminar el trabajo a tiempo. 10 años después, Bette Smith ganó su primer millón de dólares. Había inventado el Tippex. El mismísimo Dr. House resuelve sus casos de la forma más inesperada e inconexa aparentemente. La lista de serendipias es inagotable: el descubrimiento del LSD mientras se investigaba un fármaco para la migraña, la penicilina, el principio de Arquímedes (del que salió la famosa palabra Eureka!), el teflón de las sartenes o los 4.000 millones de árboles plantados accidentalmente por ardillas que olvidan donde han enterrado el fruto. 

Lo verdaderamente interesante de la serendipia es la importancia de saber sacar partido del error, de obtener una oportunidad como fruto de un fracaso y de tener la capacidad de relacionar diferentes aspectos aparentemente sin relación entre si para encontrar nuevas soluciones, siendo capaz de ver el problema con cierta distancia que siempre facilita las visiones alternativas y los resultados inesperados. De hecho el agujero del donut, el monopoly, las tiritas o la píldora anticonceptiva fueron descubiertas por personas que no trabajaban en esos campos. Ríanse de cuando le pregunten sobre su experiencia previa, porque lo verdaderamente importante para que logremos descubrir cosas valiosas de forma accidental es intentar ver el mundo de una forma nueva cada día, de seguir experimentando y cuestionarse siempre lo establecido, sacando fuerzas de los fracasos obtenido y de ser constantes en nuestro cometidos. 

Creo que más que por azar, las cosas suceden por la acumulación de búsqueda constante. Pocas cosas suceden por azar, casualidad, suerte o destino y tenemos mucha más capacidad de moldear lo que nos sucede de la que creemos. Así que si no ha encontrado su serendipia siga buscándola, porque si el éxito sucede por casualidad, la casualidad se consigue con la búsqueda constante.

por Pedro Reig Catalá (26-07-2011 (03:15:37)

Fuente: puromarketing.com

miércoles, 27 de julio de 2011

Caso: Estudiar en las redes sociales: sí, es posible

Casos en Orkut y Twitter llamar la atención como una posibilidad para estudiar, pese a ser espacios tradicionalmente vistos como de entretención.

Se utilizan para la comunicación entre amigos, la divulgación de las marcas e incluso el derrocamiento de presidentes. Las redes sociales se han vuelto cada vez más multifuncionales, y así han conquistado espacios cada vez más importantes en el día a día de las personas. Entonces, ¿Por qué no usarlas también para estudiar?
En Orkut, una red social que cuenta con el mayor número de usuarios en Brasil, las comunidades se convirtieron en un gran éxito, por reunir a sus miembros en torno a sus intereses en común. 
En ellas, los usuarios intercambian información sobre sus bandas favoritas, hablan de política, comparten experiencias profesionales y de estudio. ¡Eso es! En la comunidad, "deber de preguntar” (Plantão de dúvidas), por ejemplo, los profesores y alumnos de primaria, secundaria y universidad, intercambian información diaria sobre diversos temas.
Según Fábio Niski, que creó la comunidad en 2004, cuando todavía era alumno de cursos de matemáticas, "un estudiante que tiene dificultad para entender un concepto o ejercicio, no tiene que esperar al día siguiente para hablar con el profesor. Se puede enviar preguntas y obtener ayuda de la gente casi inmediatamente", explica.
El estudiante Renan Ferreira Barros (21),por ejemplo, obtuvo bastante ayuda de la comunidad. "Comencé a estudiar tarde para el examen de ingreso. Cuando caí y me di cuenta que estaba atrasado respecto a mis compañeros, conocí la comunidad. Empecé a publicar algunas preguntas que fueron contestadas con rapidez y, en su gran mayoría, correctamente" cuenta el estudiante, que salió primer lugar en el examen de admisión de Ingeniería de Producción, en la Universidad Federal Fluminense de Río das Ostras (RJ) en 2007.

"Con el tiempo, empecé a responder a las preguntas de otros miembros, discutía sobre las respuesta a algunas preguntas y aprendí a resolverlas de forma eficiente. Fueron casi cuatro meses de intensa dedicación a la comunidad. Estoy seguro de que sólo pude pasar en primer lugar gracias a eso, dice Ferreira.
En Twitcam
En el último examen de la OAB - Orden de los Abogados de Brasil, que tuvo lugar a finales de 2010, 88,275% de los 106.891 participantes fueron reprobados. Con eso pudieron ver que el desafío no era pequeño. ¿Por qué no echar un vistazo a Twitter?o
Calma. No estamos sugiriendo que tire todo por la borda y desista de la prueba. Es que en la red de microblogging un abogado está teniendo éxito dando tips justamente a aquellos que se preparan para el tan temido examen.
Alexandre Mazza tiene un doctorado en Derecho Administrativo, autor de más de 70 obras en el área, conferencista y todavía tiene algo de tiempo libre para ayudar a los nuevos colegas de profesión en la preparación para su examen. En Twitcam, les da consejos y respuestas dudas de sus seguidores de Twitter. Las clases han tenido tanto éxito que el profesor tiene más de 106.000 seguidores.
"Empecé a usar las redes sociales como un instrumento de aproximación. Hoy en día, me doy cuenta de que, además de reducir las distancias, el contacto a través de Twitter y Facebook es la manera más rápida de compartir información útil con mis alumnos", dijo Mazza, quien también imparte clases de preparación a distancia.
¿Pero será que las redes sociales se pueden utilizar para minimizar los problemas de la educación brasileña de manera efectiva? “Las redes sociales nunca podrán reemplazar a la educación formal, ni podrán compensar las deficiencias del modelo educativo en el país. Éstas son sólo un instrumento complementario bastante dinámico, capaz de acercar a estudiantes y profesores.
“En las semanas previas al examen de la OAB o algún concurso público importante, hago revisiones a través de Twitter, acompañado por miles de seguidores. Sin duda, eso ayuda a que el candidato mejore su rendimiento, pero estos consejos siempre asumen que el alumno ya conoce los fundamentos de la materia", dice Mazza.
“Quien sigue a un profesor por Twitter tiene que saber que encontrará el mínimo de la información que necesita. Para profundizar en el tema, el alumno sigue teniendo que recurrir a los medios tradicionales, como libros y otros materiales", agregó el profesor.
Sin embargo, Mazza recuerda que los estudiantes de hoy tienen muchas maneras para buscar el conocimiento, y esto cambia la clásica relación estudiante/profesor. "Antiguamente el profesor tenía el monopolio de la información. Hoy en día todo está disponible en Internet. Esto cambia el papel del pedagogo, que pasa a ser una persona que filtra la información útil y muestra el camino para los contenidos relevantes", dice.

www.administradores.com.br


Autor: Simão Mairins, www.administradores.com.br


domingo, 24 de julio de 2011

10 Razones para usar software libre en la empresa

Con los muchos negocios y organizaciones gubernamentales que utilizan actualmente el software libre o de código abierto como Linux, es cada vez más claro que el precio no es la única ventaja que este software tiene. 
Si así fuera, las empresas que adoptaron el software libre durante la última crisis seguramente habría cambiado de nuevo a software propietario una vez que la economía mejoró, y eso no es claramente el caso.
Por el contrario, el software libre y de código abierto (FOSS por sus siglas en inglés) tiene muchas otras ventajas convincentes para las empresas, particularmente las PyMEs, algunos de ellas incluso más valiosas que el bajo precio del software. ¿Necesitas un ejemplo? En este post presentamos 10…

1. Seguridad

Es difícil pensar en un mejor ejemplo de seguridad en software de código abierto que el reciente descubrimiento de Coverity de una serie de defectos en el núcleo de Android. Si bien Android no puede ser una fuente totalmente abierta,  el ejemplo sigue siendo un ejemplo perfecto de lo que se conoce como la Ley “Linus”. De acuerdo con esa máxima, “Ante suficientes ojos, todos los errores son superficiales”. Lo que esto significa es que cuanta más gente pueda ver y probar un conjunto de código, es más probable alguna falla se detectados y corregidos rápidamente. Es esencialmente el polo opuesto de la “seguridad por oscuridad”, argumento que se utiliza a menudo para justificar el uso de costosos productos de esta naturaleza.
¿La ausencia de informes de error como sobre el código del iPhone o Windows significa que estos productos son más seguros? Lejos de ello – sino todo lo contrario, se podría decir.
Lo único que significa es que esos productos están cerrados a la opinión pública, para que nadie fuera de las empresas tenga la menor idea de los muchos errores que contienen. Y no hay forma en que el conjunto limitado de desarrolladores y probadores con que cuenta una empresa pueda evaluar y testear un software como la comunidad considerablemente mas grande de desarrolladores de software libre hace
Por otro lado los problemas de seguridad en el caso de software libre o abierto se resuelven en cuestión de horas. En cambio en el mundo del software propietario los parches de seguridad (mejoras en el software para resolver problemas de seguridad) tardan considerablemente mas en resolverse.

2. Calidad

¿Qué es más probable que sea mejor: un paquete de software creado por un grupo de desarrolladores, o un paquete de software creado por miles de desarrolladores? Así como hay incontables desarrolladores y usuarios que trabajan para mejorar la seguridad del software de código abierto, también los hay para crear características innovadoras así como muchas nuevas funciones y mejoras a los productos.
En general, el software de código abierto se aproxima mas a lo que los usuarios quieren, porque los usuarios pueden contribuir modificando el código para que así sea. Al menos un estudio elaborado por la Linux Foundation reciente ha demostrado, de hecho, que la superioridad técnica suele ser la razón principal de las empresas elegir el software de código abierto.

3. Personalización

En la misma línea, los usuarios pueden tomar un pedazo de software de código abierto y modificarlo para adaptarlo a sus necesidades. Dado que el código es abierto, es simplemente una cuestión de modificarlo para añadir la funcionalidad que desee. No trate de hacer lo mismo el software propietario! O mejor aún, solicite a su proveedor de software propietario un presupuesto por la modificación y probablemente el costo duplique el valor invertido en el software.

4. Libertad

Cuando las empresas recurren a software libre o de código abierto, se liberan de las restricciones que impone el proveedor de software . Los clientes de estos proveedores están a merced de la visión del proveedor, requisitos, dictados, los precios, las prioridades y el calendario, y eso limita lo que pueden hacer con los productos que está pagando.
Con el software libre, por otro lado, los usuarios tienen el control para tomar sus propias decisiones y hacer lo que quiera con el software. También tienen una comunidad mundial de desarrolladores y usuarios a su disposición para ayudar con eso.

5. Flexibilidad

Cuando su empresa utiliza software propietario como Microsoft Windows y Office, entramos en un proceso que requiere para mantener la actualización de software y hardware hasta el infinito. El Software de código abierto, por el contrario, suele requerir de muchos menos recursos, lo que significa que puede funcionar bien, incluso en hardware antiguo. Depende de usted – no de algún vendedor – decidir cuándo es el momento de actualizar.

6. Formatos abiertos: Interoperabilidad

El software de código abierto es mucho mejor en la adhesión a los estándares abiertos que el software propietario. Si el valor de la interoperabilidad con otras empresas, equipos y usuarios es importante para su empresa o si no quieren verse limitados por los formatos de datos propietarios, entonces software de código abierto es sin duda el camino a seguir.

7. Posibilidad de “auditar” el código

Con el software de código cerrado lo único que nos asegura la calidad y confiabilidad del software es la palabra de la empresa o del vendedor. Se trata básicamente de un salto de fe. La visibilidad del código detrás del software de código abierto, sin embargo, significa que usted puede ver por si mismo y tener confianza.

8. Opciones de Soporte

El software de código abierto es por lo general libre, y por lo tanto es un mundo de apoyo a través de las comunidades vibrantes en torno a cada pieza de software. La mayoría de todas las distribuciones de Linux, por ejemplo, tiene una comunidad en línea con excelente documentación, foros, listas de correo, blogs, wikis, foros y chat de apoyo, incluso en vivo.
Para empresas que desean una garantía adicional, es posible contratar (a precios muy competitivos) equipos de soporte profesionales para la mayor parte de los sistemas de código abierto. Además debido a que el 100% de los ingresos provienen del soporte podemos estar seguros que el servicio será bueno.

9. Costo

Entre el precio de compra del software en sí, el costo exorbitante de protección contra virus, los gastos de soporte, los gastos de actualización y los gastos asociados con estar bloqueado, el software propietario le esta costando mas a su negocio de lo que usted probablemente sepa. ¿Y por qué? Usted puede obtener una mejor calidad a una fracción del precio.

10. Pruebe antes de comprar

Si usted está considerando el uso de software de código abierto, por lo general no le costará nada probarlo primero. Esto se debe en parte a precio libre del software, y en parte debido a la existencia de LiveCDs y USBs en vivo para muchas distribuciones de Linux, por ejemplo. No hay compromiso hasta que esté seguro.
Nada de esto quiere decir, por supuesto, que su empresa necesariamente debe utilizar software de código abierto para todo. Pero con todas las muchas ventajas que tiene, que sería negligente no considerarlo seriamente.

Guía de software libre para la gestión de PyMEs

Incorporar tecnología es una factor clave para el crecimiento de su empresa. Conoce a fondo cuales alternativas libres u open source existen para mejorar y optimizar la gestión de tu empresa
Autor: CONRADO MAGGI on JULY 14, 2011


Fuente: re-ingenia.com


10 Aplicaciones libres o gratis que no pueden faltar en tu empresa

A pesar de la gran cantidad de aplicaciones libres o gratuitas que hay, muchos propietarios de pequeñas empresas siguen gastando una cantidad excesiva de sus escasos recursos de software o bien usando software ilegal. Microsoft Office 2010? Que va desde $ 499,99 o $ 279,99 si es que la versión Home es suficiente para su empresa. . QuickBooks 2010? $ 159.95 o más. Adobe Photoshop CS5? Una friolera de $ 699.

La buena noticia es que hay alternativas libres y de código abierto para casi todos los paquetes de una pequeña empresa puede necesitar, y la mayoría de ellos son excelentes. Si usted ya ha hecho el cambio a Linux – son, después de todo, la seguridad y 9 otras otras razones para hacerlo – o bien utilizada windows estas 10 aplicaciones libres puede ser justo lo que necesita una pequeña empresa.

1. Navegador Web: Firefox

Ahora en la versión 5, el Firefox de Mozilla sigue siendo la alternativa más popular a Internet Explorer de Microsoft. La última actualización incluye una interfaz mejorada, más HTML 5, su gran rendimiento y seguridad avanzada. Sistema operativo: Windows, Linux, OS X.

2. Email: Thunderbird y Lightning

En conjunto, Thunderbird de Mozilla y Lightning proporcionan una alternativa a Microsoft Outlook con el correo electrónico, calendario, lista de tareas pendientes, etc Ofrecen una intuitiva interfaz con pestañas, protección contra el spam y una buena capacidad de búsqueda. Sistema operativo: Independiente del SO.

3. Software de oficina: LibreOffice

LibreOffice es una fantástica alternativa de código abierto de Microsoft Office. Con componentes de procesamiento de textos, hojas de cálculo, presentaciones, gráficos, bases de datos y más, está disponible en muchos idiomas y funciona en todos los sistemas operativos, incluyendo Linux, Mac y Windows. Todos los datos se almacenan en un formato estándar abierto internacional, y el software puede leer y escribir archivos de la MS Office también. Tal vez lo mejor de todo, la interfaz es tan intuitiva y familiar que ni siquiera se dan cuenta de que está usando algo nuevo. Usted puede descargar y utilizarlo de forma gratuita

4 Software de Autoedición: Scribus

Scribus es un programa gratuito que ofrece capacidades profesionales de diseño de páginas (folletos, sobres, correspondencia, etc) para Linux, Mac OSX y de escritorio de Windows. Scribus soporta características profesionales de publicación como separaciones de color CMYK, tanto para la prensa preparado para la producción y creación de PDF. He encontrado que el software puede hacer casi cualquier cosa que hacen sus alternativas pagas. Su capacidad es comparable a la de InDesign o editor, por ejemplo.

5. Gestión de proyectos: OpenProj

OpenProj es un software libre de gestión de proyectos que sustituye sumamente bien a Microsoft Project, pero funciona con Linux, Mac y Windows. Con más de un millón de usuarios, la base instalada de OpenProj es sólo superada por la de la propia Microsoft Project – que, por supuesto, cuesta infinitamente mas. Diagramas de Gantt, PERT y todas las otras capacidades que ofrece el software de Microsoft están en OpenProj también, y los archivos existentes del MS Project se pueden importar fácilmente.

6. Gráficos: GIMP

GIMP, que significa “GNU Image Manipulation Program,” es una alternativa de código libre y abierto a los productos de Adobe PhotoShop. Con una interfaz muy similar a Photoshop, GIMP ofrece capacidades, incluyendo retoque fotográfico, composición de imágenes y creación de imágenes. En lo personal creo, que salvo a diseñadores expertos o muy exigentes va a satisfacer a todos. Es perfecto para hacer gráficos para web, retoque de fotos de los productos y crear materiales de marketing, y las imágenes creadas se pueden guardar en una variedad de formatos, incluidos PSD de Photoshop.

7. Contabilidad: GnuCash

GnuCash es un software financiero-contable orientado al uso personal y de pequeños negocios. Está disponible para Linux, Mac OS X y Windows. A la vez potente y flexible, GnuCash le permite rastrear las cuentas bancarias, acciones, ingresos y gastos. Tan rápido e intuitivo de usar como un registro de cheques, que se basa en los principios de contabilidad profesional para garantizar que los libros equilibrados y reportes exactos. Entre las principales características de GnuCash son de doble entrada de contabilidad, la contabilidad de pequeñas empresas, la facturación y más. Los datos pueden ser importados de programas tales como Microsoft Money y Quicken, al tiempo que se pueden exportar a hojas de cálculo como Microsoft Excel. Una vez más, la interfaz de este software libre es tan intuitiva y familiar que si usted ha usado otros programas de contabilidad antes, éste no será un problema.

8. Gestión de recursos humanos: OrangeHRM

OrangeHRM es un paquete gratuito de gestión de recursos humanos. Con los módulos de gestión de información personal, beneficios, contratación, autoservicio del empleado, la licencia, y tiempo y asistencia, el software también ofrece servicios opcionales de pago incluyendo formación, soporte y personalización.

9. Edición de páginas web: KompoZer

Al igual que FrontPage de Microsoft, KompoZer es una herramienta para cualquier persona que trabaja con páginas Web. Se puede descargar de forma gratuita y compatible con Linux, así como las otras alternativas de costumbre, KompoZer es un editor WYSIWYG (Lo que ves es lo que obtienes), lo que significa que usted puede editar las páginas web visualmente, así como por trabajar con el código HTML. El software libre es muy fácil de usar, por lo que es ideal para usuarios no técnicos que quieren crear un atractivo y  profesional sitio web sin necesidad de tener que saber HTML.

10. Herramientas para PDF: PDFedit

Yo debemos adquirir el costoso software de Adobe con el fin de realizar modificaciones a los archivos PDF. PDFedit le permite editar el texto, borrar y cambiar la numeración de páginas, añadir etiquetas y más. Sistema operativo: Windows, Linux.
Hemos presentado 10 herramientas libres o gratis para la gestión personal o de una pequeña oficina. Usando algunas o todas de estas herramientas podemos estar seguros de que estamos usando software de muy alta calidad, comparable con sus alternativas pagas y lo mejor de todo, sin costo alguno.

Guía de software libre para la gestión de PyMEs

Incorporar tecnología es una factor clave para el crecimiento de su empresa. Conoce a fondo cuales alternativas libres u open source existen para mejorar y optimizar la gestión de tu empresa
Autor: CONRADO MAGGI on JULY 19, 2011


Fuente: re-ingenia.com