Video interesante sobre el calentamiento global
Estamos viviendo un periodo crucial. Los científicos nos dicen que solo tenemos 10 años para cambiar nuestros modos de vida, evitar de agotar los recursos naturales y impedir una evolución catastrófica del clima de la Tierra.Cada uno de nosotros debe participar en el esfuerzo colectivo, y es para sensibilizar al mayor número de personas que se ha realizado la película HOME.Para que esta película fuera difundida lo más ampliamente posible, tenía que ser gratuita. Un mecenas, el grupo PPR, permitió que lo fuese. Europacorp que lo distribuye, se comprometió a no tener ningún beneficio porque HOME no tiene ningún interés comercial. Está bien realizada. La narradora es Salma Hayec, pero también hay otra versión con Juan Echanove.
Enlace;
http://www.youtube.com/watch?v=SWRHxh6XepM
Innovación, redes sociales, sociedad de la información, tecnología, talento...
miércoles, 29 de julio de 2009
jueves, 23 de julio de 2009
Formación y Desarrollo de la Empresa en el mundo TIC
En estos tiempos escuchamos con frecuencia hablar de la falta de productividad en la empresa española en relación a nuestros socios comunitarios. Y las diferencias generan costes que penalizan la competitividad. Durante estos años pasados en los que la evolución del empleo ha sido positiva, han sido pocos los sectores que han invertido parte de sus beneficios en un capital que, haya o no crisis, siempre tendrá un valor fundamental; la formación del trabajador.
Indica muy acertadamente el profesor Castells que la productividad –la fuente de la productividad- es la piedra angular del crecimiento económico y por tanto, de los beneficios, salarios, acumulación e inversión. Y el factor clave de esta nueva economía de la información está en la innovación. De forma bastante triste, y aunque todo esto lo sabemos desde hace tiempo, una parte muy importante del tejido empresarial se ha centrado en generar beneficios y crecer pensando en el corto plazo y olvidando que la innovación nace de un proyecto de largo recorrido en el que la empresa tiene que fijar sus objetivos. Por supuesto que la innovación se puede comprar pero creo que estaremos de acuerdo en que es mucho mas rentable intentar tenerla en casa.
La aplicación de las nuevas tecnologías (las TIC) en el mundo empresarial esta contribuyendo a que la información sea mas horizontal. Prácticamente cualquier empresa trabaja ya en red y la organización que no considere fundamental la flexibilidad y el intercambio de conocimiento como algo prioritario puede ver peligrar su subsistencia. Todo ello esta va a llevar aparejado una nueva definición del concepto del trabajo. Ya sabemos del ahorro de costes que nos supone la tecnología, ahora se trata de aprovechar todo el caudal de información que tenemos y ser mas productivos, mas innovadores. Buscar el talento dentro de las organizaciones.
Valga como ejemplo la anécdota de los pescadores de Kerala en Japón, que no hace muchos años,cuando venían de pescar y al llegar a la costa, tenían que decidir a qué mercado llevar sus capturas. Ocurría con frecuencia por un lado, que unos mercados estuvieran desabastecidos y otros tuvieran que echar a perder la pesca por no poder venderlo, y por otro que los precios tuvieran una variación del 50%. Todo ello se resolvió de la forma mas sencilla; comprando un teléfono móvil. Esto llevo a divergencias entre los pescadores que se compraron el movil y los que no. Los que disponían del dispositivo, incluso a veces vendían la pesca antes de atracar. Este es un buen ejemplo de la importancia del buen uso de las tecnologias y que especifica el problema de los que no cruzan la brecha digital.
Tenemos clara la importancia del desarrollo de una estrategia basada en el conocimiento, en compartirlo, desarrollarlo. En la importancia de crear equipos flexibles y multidisciplinares que logren la consecución de los objetivos fijados previamente.
Una formación adecuada y bien planificada enmarcada en los retos y objetivos de la empresa nos va a suponer una ventaja competitiva, tanto a la hora de negociar con proveedores como a la hora de vender nuestro producto.
Aquí –en la formación continuada del trabajador- nos vamos a encontrar con barreras, mentales y generacionales. Incluso por Comunidades Autónomas; en un artículo publicado en el Wolrd Economic Forum,” The Global Information Technology Report” hay diferencias de casi 20 puntos (Castilla-La Mancha, 40%- Madrid 58,6%) entre el número de personas que acceden a la red tanto en casa como en su trabajo.
Una de las fórmulas que mas aceptación está teniendo a nivel empresarial es la formación blended o compartida. Combina el estudio virtual con el presencial, reduciendo la formación presencial al mínimo, Este tipo de formación puede estructurarse dentro de diferentes estratégias; una de largo recorrido y que busca crear valor (itinerarios de especialización) y otra mas focalizada en la consecución de objetivos a corto dentro de la estrategia que diseñe la empresa. Este tipo de itinerarios tiene mucho atractivo ya que es una formación fácilmente medible y con unos resultados prácticamente inmediatos.
Todo ello nos va a llevar a una nueva forma de trabajo. Kinnie et al.,en su artículo “Influences on the choice of HR system: the network organization perspective” investiga la relación emtre recursos humanos y rendimiento. Es fundamental que, para conseguir un rendimiento optimo, los administradores tengan un alto nivel de implicación. Y ya no basta conocer el producto, las relaciones laborales con sus empleados deben perseguir la implicación, el conseguir una auténtica red de conocimiento. Para ello debe haber un verdadero plan estratégico dentro de los diferentes departamentos de Recursos Humanos.
Rubery et al. en su artículo “Changing organizational forms and the employment relationship”, comenta esto precisamente; debe haber una coherencia en el area de los recursos humanos, un sentido común y no generar la impresión de que se aplica un cierto tipo de justicia (antigüedad, costumbres..). La coherencia en esta área concede legimitidad frente a sindicatos y trabajadores. Ante acciones encaminadas claramente –con coherencia y sentido común- a crear valor en los empleados, a aumentar el prestigio, a favorecer la productividad y en definitiva a proteger la supervivencia, está desactivándose la posibilidad de ingerencias externas no deseadas y con un posible coste.
En el aspecto puramente formativo, es el conjunto de todos los nodos de la empresa; la empresa red la que debe estar de acuerdo en los criterios y desarrollo de los diferentes itinerarios, adecuándose a su realidad social, a su entorno y a sus objetivos.
Del desarrollo de una política de personal adecuada, coherente, individualizada, implicada, flexible y que aporte valor en cada uno de los eslabones de la cadena de la empresa estará la clave en los próximos años. El hardware y sus aplicaciones nos ahorraron tiempo para procesos mecánicos, ahora toca desarrollar el potencial humano.
Bibliografía:
1. Vilaseca et al, (2004): Treball en xarxa i teletreball: cap a nova tendència global
del treball. (Apartado 1.3: "L’empresa xarxa i la nova organització del treball")
2. Castells, M.: La sociedad red, Cap.4: “Las transformaciones del trabajo y el
empleo: trabajadores en red, desempleados y trabajadores a tiempo flexible”.
Pàgines 52 a 76.
3. Rubery, J.; Earnshaw, J.; Marchington, M.; Cooke, F.L.; Vincent, S. (2002):
“Changing organizational forms and the employment relationship”. Journal of
Management Studies, 39:5, 645-672.
4. Kinnie, N.J.; Swart, J.; Purcell, J. (2005): “Influences on the choice of HR system:
the network organization perspective”, International Journal of Human Resource
Management, 16:6, 1004-1028.
5. Lengnick-Hall, M.L.; Lengnick-Hall, C.A. (2003): "HR's role in building relationship
networks", Academy of Management Executive, vol. 17, nº 4, 53-63.
© Ramón García Espeleta
Indica muy acertadamente el profesor Castells que la productividad –la fuente de la productividad- es la piedra angular del crecimiento económico y por tanto, de los beneficios, salarios, acumulación e inversión. Y el factor clave de esta nueva economía de la información está en la innovación. De forma bastante triste, y aunque todo esto lo sabemos desde hace tiempo, una parte muy importante del tejido empresarial se ha centrado en generar beneficios y crecer pensando en el corto plazo y olvidando que la innovación nace de un proyecto de largo recorrido en el que la empresa tiene que fijar sus objetivos. Por supuesto que la innovación se puede comprar pero creo que estaremos de acuerdo en que es mucho mas rentable intentar tenerla en casa.
La aplicación de las nuevas tecnologías (las TIC) en el mundo empresarial esta contribuyendo a que la información sea mas horizontal. Prácticamente cualquier empresa trabaja ya en red y la organización que no considere fundamental la flexibilidad y el intercambio de conocimiento como algo prioritario puede ver peligrar su subsistencia. Todo ello esta va a llevar aparejado una nueva definición del concepto del trabajo. Ya sabemos del ahorro de costes que nos supone la tecnología, ahora se trata de aprovechar todo el caudal de información que tenemos y ser mas productivos, mas innovadores. Buscar el talento dentro de las organizaciones.
Valga como ejemplo la anécdota de los pescadores de Kerala en Japón, que no hace muchos años,cuando venían de pescar y al llegar a la costa, tenían que decidir a qué mercado llevar sus capturas. Ocurría con frecuencia por un lado, que unos mercados estuvieran desabastecidos y otros tuvieran que echar a perder la pesca por no poder venderlo, y por otro que los precios tuvieran una variación del 50%. Todo ello se resolvió de la forma mas sencilla; comprando un teléfono móvil. Esto llevo a divergencias entre los pescadores que se compraron el movil y los que no. Los que disponían del dispositivo, incluso a veces vendían la pesca antes de atracar. Este es un buen ejemplo de la importancia del buen uso de las tecnologias y que especifica el problema de los que no cruzan la brecha digital.
Tenemos clara la importancia del desarrollo de una estrategia basada en el conocimiento, en compartirlo, desarrollarlo. En la importancia de crear equipos flexibles y multidisciplinares que logren la consecución de los objetivos fijados previamente.
Una formación adecuada y bien planificada enmarcada en los retos y objetivos de la empresa nos va a suponer una ventaja competitiva, tanto a la hora de negociar con proveedores como a la hora de vender nuestro producto.
Aquí –en la formación continuada del trabajador- nos vamos a encontrar con barreras, mentales y generacionales. Incluso por Comunidades Autónomas; en un artículo publicado en el Wolrd Economic Forum,” The Global Information Technology Report” hay diferencias de casi 20 puntos (Castilla-La Mancha, 40%- Madrid 58,6%) entre el número de personas que acceden a la red tanto en casa como en su trabajo.
Una de las fórmulas que mas aceptación está teniendo a nivel empresarial es la formación blended o compartida. Combina el estudio virtual con el presencial, reduciendo la formación presencial al mínimo, Este tipo de formación puede estructurarse dentro de diferentes estratégias; una de largo recorrido y que busca crear valor (itinerarios de especialización) y otra mas focalizada en la consecución de objetivos a corto dentro de la estrategia que diseñe la empresa. Este tipo de itinerarios tiene mucho atractivo ya que es una formación fácilmente medible y con unos resultados prácticamente inmediatos.
Todo ello nos va a llevar a una nueva forma de trabajo. Kinnie et al.,en su artículo “Influences on the choice of HR system: the network organization perspective” investiga la relación emtre recursos humanos y rendimiento. Es fundamental que, para conseguir un rendimiento optimo, los administradores tengan un alto nivel de implicación. Y ya no basta conocer el producto, las relaciones laborales con sus empleados deben perseguir la implicación, el conseguir una auténtica red de conocimiento. Para ello debe haber un verdadero plan estratégico dentro de los diferentes departamentos de Recursos Humanos.
Rubery et al. en su artículo “Changing organizational forms and the employment relationship”, comenta esto precisamente; debe haber una coherencia en el area de los recursos humanos, un sentido común y no generar la impresión de que se aplica un cierto tipo de justicia (antigüedad, costumbres..). La coherencia en esta área concede legimitidad frente a sindicatos y trabajadores. Ante acciones encaminadas claramente –con coherencia y sentido común- a crear valor en los empleados, a aumentar el prestigio, a favorecer la productividad y en definitiva a proteger la supervivencia, está desactivándose la posibilidad de ingerencias externas no deseadas y con un posible coste.
En el aspecto puramente formativo, es el conjunto de todos los nodos de la empresa; la empresa red la que debe estar de acuerdo en los criterios y desarrollo de los diferentes itinerarios, adecuándose a su realidad social, a su entorno y a sus objetivos.
Del desarrollo de una política de personal adecuada, coherente, individualizada, implicada, flexible y que aporte valor en cada uno de los eslabones de la cadena de la empresa estará la clave en los próximos años. El hardware y sus aplicaciones nos ahorraron tiempo para procesos mecánicos, ahora toca desarrollar el potencial humano.
Bibliografía:
1. Vilaseca et al, (2004): Treball en xarxa i teletreball: cap a nova tendència global
del treball. (Apartado 1.3: "L’empresa xarxa i la nova organització del treball")
2. Castells, M.: La sociedad red, Cap.4: “Las transformaciones del trabajo y el
empleo: trabajadores en red, desempleados y trabajadores a tiempo flexible”.
Pàgines 52 a 76.
3. Rubery, J.; Earnshaw, J.; Marchington, M.; Cooke, F.L.; Vincent, S. (2002):
“Changing organizational forms and the employment relationship”. Journal of
Management Studies, 39:5, 645-672.
4. Kinnie, N.J.; Swart, J.; Purcell, J. (2005): “Influences on the choice of HR system:
the network organization perspective”, International Journal of Human Resource
Management, 16:6, 1004-1028.
5. Lengnick-Hall, M.L.; Lengnick-Hall, C.A. (2003): "HR's role in building relationship
networks", Academy of Management Executive, vol. 17, nº 4, 53-63.
© Ramón García Espeleta
domingo, 19 de julio de 2009
Reseña sobre el “Curso sobre competencias digitales”. Conocimientos, habilidades y actitudes para la Sociedad Red. CCCB
Durante los días 16 y 17 de julio de 2009 se ha celebrado en el CCCB de Barcelona al amparo del Consorci Universitat Internacional Menendez Pelayo de Barcelona el curso sobre competencias digitales citado.
Es evidente que nos encontramos ante una nueva sociedad que comporta cambios en nuestra vida cotidiana, cambios en los mercados, en nuestras relaciones, en el mercado laboral, cambios en las personas, empresas e instituciones. Todo ello está conformando nuevas exigencias para las personas que conformamos esta sociedad. Esta nueva Sociedad, la que se está dando en llamar de la Información y el Conocimiento va a exigir –está exigiendo- nuevos conocimientos, nuevas habilidades y nuevas actitudes. En este curso se ha desarrollado una excelente aproximación al concepto que agrupa todo ello, la competencia digital.
El primer ponente ,Boris Mir, del Servei de Tecnlogies per l’Aprenentatge i el Coneiximent de la Generalitat de Catalunya, nos presentó un mapa de la situación actual. e indicó las principales competencias a tener en cuenta; sean comunicativas, metodológicas, personales o aquellas centradas en convivir y habitar en el mundo. En un sencillo resumen que no hace justicia a una ponencia tan completa, podríamos decir que la competencia digital sólo se alcanza con es uso estratégico de las diferentes capacidades.
José Manuel Pérez Tornero, Catedrático de Comunicación y Director del Gabinete de Comunicación y Educación de la UAB, comento los nuevos paradigmas que se aprecian y las incongruencias de los diferentes poderes públicos. Aspectos técnicos, semióticos, ideológicos y de organización social nos tienen que hacer replantear de forma urgente la estrategia que desarrollemos, donde no deber ser ajeno la inseguridad de los datos que circulan por la red, la insatisfacción de las grandes corporaciones por el no control, y la indefinición de los poderes públicos. ¿Regulación?, ¿Control?, ¿Cultura del esfuerzo?, muchas incógnitas por despejar.
La mañana finalizó con una fantástica exposición sobre las nuevas competencias para la política, el gobierno y la participación ciudadana; resumido en un nueva palabra que resume el concepto; Goverati. Hablamos de una colectividad formada por ciudadanos que son parte de la sociedad de la información, formados, activos, inquietos y que lo que buscan (buscamos) es el beneficio de todos. Podemos ayudar a mejorar la sociedad, a corregir desviaciones no deseadas, a colaborar con los poderes públicos, pero también debemos exigir transparencia, coherencia y que, cuanto menos, estén abiertos a escuchar sugerencias.
El programa “Compartim” que desarrolla el Departament de Justicia de la Generalitat fue expuesto por su responsable; Jesús Martínez y por la consultora en nuevas tecnologías; Dolors Reig. En un ambicioso programa, se busca mejorar la administración compartiendo las diferentes habilidades y conocimientos de los miembros de los diferentes departamentos.
Howard Rheingold, profesor de la universidad californiana de Berkley y de Standford , cerró la sesión del jueves, mediante una videoconferencia, centrándose más en la importancia de las relaciones humanas y su relación con la nueva sociedad que en la tecnología. Habló de redes sociales, de la importancia de ellas, y de su potencia.
El viernes 17 , fue el profesor de estudios de economía y empresa y director del grupo de investigación interdisciplinar sobre las TIC en el IN3 de la UOC, Joan Torrent el que inició la sesión hablando sobre la importancia de un capitalismo en estado de construcción permanente. El conocimiento y el acceso al mismo que tiene la mayor parte de la población va a se algo crucial y que va a marcar el futuro en las próximas décadas. Las implicaciones de esta nueva economía en la sociedad del conocimiento generarán diversos efectos; Complementariedad, Sinergia, Cambios de chip mental, Desarrollo y Expansión de las nuevas redes. Todo ello junto a los nuevas clases de conocimiento que se avecinan, favorecido todo ello por el desarrollo y la generalización de las TIC está llevándonos a terrenos desconocidos dentro de la tercera revolución industrial y va a marcar el desarrollo de este siglo XXI.
Virtaula; la plataforma de formación de La Caixa, fue la siguiente protagonista de la jornada. Presentada por Laura Rosillo y Gerard Velez, en su exposición se repasaron los orígenes de esta aplicación desde sus orígenes a la actual, que, en unos meses ha tenido un desarrollo exponencial. Blogs personales, soporte multimedia, itinerarios formativos, apoyo a acciones comerciales….Todo un mundo de posibilidades que aplica las nuevas tecnologías en el desarrollo formativo de sus empleados y que conforma un espacio de formación, reunión y de intercambio para todos los empleados. Está siendo un éxito, pero las posibilidades que se le auguran son aún mayores.
Cristóbal Cobo, profesor y Coordinador de nuevas tecnologías de FLACSO en México , habló sobre la importancia del ser humano sobre todo lo demás. Con unos datos relevadores demostró que el uso masivo de internet no se corresponde con mejores resultados en el ámbito académico. Pero si que se aprecia que aquellos países con escaso nivel de desarrollo también lo tienen el desarrollo de las nuevas tecnologías. Por tanto urge necesariamente desarrollar nuevas e-competencias que mezclen información, tecnología e innovación que creen nuevas fuentes de valor en todas las organizaciones.
Cerró el acto Genis Roca haciendo un resumen de las líneas generales del curso.
Como asistente, mi impresión ha sido estupenda, desde la Dirección de Curso a cargo de Ismael Peña-López a los ponentes, todos han rayado a un gran nivel. La temática era muy sugerente; nos encontramos en la antesala de un gran cambio social y económico en el que los nuevos nodos de la Información y el Conocimiento van –vamos- a ser decisivos a la hora de interpretar y dirigir los cambios. No creo que nos consideremos salvadores de nada pero una visión global de la situación se aprecia como necesaria frente a la estrechez de muchos de los poderes actuales. Igualmente quiero hacer constar la buena relación con todos los asistentes y de los ponentes con todos ellos. Gracias a todos ellos.
Es evidente que nos encontramos ante una nueva sociedad que comporta cambios en nuestra vida cotidiana, cambios en los mercados, en nuestras relaciones, en el mercado laboral, cambios en las personas, empresas e instituciones. Todo ello está conformando nuevas exigencias para las personas que conformamos esta sociedad. Esta nueva Sociedad, la que se está dando en llamar de la Información y el Conocimiento va a exigir –está exigiendo- nuevos conocimientos, nuevas habilidades y nuevas actitudes. En este curso se ha desarrollado una excelente aproximación al concepto que agrupa todo ello, la competencia digital.
El primer ponente ,Boris Mir, del Servei de Tecnlogies per l’Aprenentatge i el Coneiximent de la Generalitat de Catalunya, nos presentó un mapa de la situación actual. e indicó las principales competencias a tener en cuenta; sean comunicativas, metodológicas, personales o aquellas centradas en convivir y habitar en el mundo. En un sencillo resumen que no hace justicia a una ponencia tan completa, podríamos decir que la competencia digital sólo se alcanza con es uso estratégico de las diferentes capacidades.
José Manuel Pérez Tornero, Catedrático de Comunicación y Director del Gabinete de Comunicación y Educación de la UAB, comento los nuevos paradigmas que se aprecian y las incongruencias de los diferentes poderes públicos. Aspectos técnicos, semióticos, ideológicos y de organización social nos tienen que hacer replantear de forma urgente la estrategia que desarrollemos, donde no deber ser ajeno la inseguridad de los datos que circulan por la red, la insatisfacción de las grandes corporaciones por el no control, y la indefinición de los poderes públicos. ¿Regulación?, ¿Control?, ¿Cultura del esfuerzo?, muchas incógnitas por despejar.
La mañana finalizó con una fantástica exposición sobre las nuevas competencias para la política, el gobierno y la participación ciudadana; resumido en un nueva palabra que resume el concepto; Goverati. Hablamos de una colectividad formada por ciudadanos que son parte de la sociedad de la información, formados, activos, inquietos y que lo que buscan (buscamos) es el beneficio de todos. Podemos ayudar a mejorar la sociedad, a corregir desviaciones no deseadas, a colaborar con los poderes públicos, pero también debemos exigir transparencia, coherencia y que, cuanto menos, estén abiertos a escuchar sugerencias.
El programa “Compartim” que desarrolla el Departament de Justicia de la Generalitat fue expuesto por su responsable; Jesús Martínez y por la consultora en nuevas tecnologías; Dolors Reig. En un ambicioso programa, se busca mejorar la administración compartiendo las diferentes habilidades y conocimientos de los miembros de los diferentes departamentos.
Howard Rheingold, profesor de la universidad californiana de Berkley y de Standford , cerró la sesión del jueves, mediante una videoconferencia, centrándose más en la importancia de las relaciones humanas y su relación con la nueva sociedad que en la tecnología. Habló de redes sociales, de la importancia de ellas, y de su potencia.
El viernes 17 , fue el profesor de estudios de economía y empresa y director del grupo de investigación interdisciplinar sobre las TIC en el IN3 de la UOC, Joan Torrent el que inició la sesión hablando sobre la importancia de un capitalismo en estado de construcción permanente. El conocimiento y el acceso al mismo que tiene la mayor parte de la población va a se algo crucial y que va a marcar el futuro en las próximas décadas. Las implicaciones de esta nueva economía en la sociedad del conocimiento generarán diversos efectos; Complementariedad, Sinergia, Cambios de chip mental, Desarrollo y Expansión de las nuevas redes. Todo ello junto a los nuevas clases de conocimiento que se avecinan, favorecido todo ello por el desarrollo y la generalización de las TIC está llevándonos a terrenos desconocidos dentro de la tercera revolución industrial y va a marcar el desarrollo de este siglo XXI.
Virtaula; la plataforma de formación de La Caixa, fue la siguiente protagonista de la jornada. Presentada por Laura Rosillo y Gerard Velez, en su exposición se repasaron los orígenes de esta aplicación desde sus orígenes a la actual, que, en unos meses ha tenido un desarrollo exponencial. Blogs personales, soporte multimedia, itinerarios formativos, apoyo a acciones comerciales….Todo un mundo de posibilidades que aplica las nuevas tecnologías en el desarrollo formativo de sus empleados y que conforma un espacio de formación, reunión y de intercambio para todos los empleados. Está siendo un éxito, pero las posibilidades que se le auguran son aún mayores.
Cristóbal Cobo, profesor y Coordinador de nuevas tecnologías de FLACSO en México , habló sobre la importancia del ser humano sobre todo lo demás. Con unos datos relevadores demostró que el uso masivo de internet no se corresponde con mejores resultados en el ámbito académico. Pero si que se aprecia que aquellos países con escaso nivel de desarrollo también lo tienen el desarrollo de las nuevas tecnologías. Por tanto urge necesariamente desarrollar nuevas e-competencias que mezclen información, tecnología e innovación que creen nuevas fuentes de valor en todas las organizaciones.
Cerró el acto Genis Roca haciendo un resumen de las líneas generales del curso.
Como asistente, mi impresión ha sido estupenda, desde la Dirección de Curso a cargo de Ismael Peña-López a los ponentes, todos han rayado a un gran nivel. La temática era muy sugerente; nos encontramos en la antesala de un gran cambio social y económico en el que los nuevos nodos de la Información y el Conocimiento van –vamos- a ser decisivos a la hora de interpretar y dirigir los cambios. No creo que nos consideremos salvadores de nada pero una visión global de la situación se aprecia como necesaria frente a la estrechez de muchos de los poderes actuales. Igualmente quiero hacer constar la buena relación con todos los asistentes y de los ponentes con todos ellos. Gracias a todos ellos.
domingo, 12 de julio de 2009
Seguridad en la Red
Dentro del mundo virtual que supone la red, existen -todavía- multiples agujeros de seguridad. El profesor Oscar Delgado, del CSIC dió una charla muy clarificadora sobre este tema en la UOC,
cuyo enlace os paso. Seguro que cuando lo escucheis, os dará miedo abrir hasta el google, pero tranquilos, entre 6.000 millones no nos va tocar a nosotros...o si?.
http://www.youtube.com/watch?v=7TE92IoZ95U
Ya me contareis.
Ramón
cuyo enlace os paso. Seguro que cuando lo escucheis, os dará miedo abrir hasta el google, pero tranquilos, entre 6.000 millones no nos va tocar a nosotros...o si?.
http://www.youtube.com/watch?v=7TE92IoZ95U
Ya me contareis.
Ramón
jueves, 9 de julio de 2009
Migración y Economía
La inmigración se está produciendo de un modo globalizado pero desigual, por un lado estamos promoviendo una liberación de flujo de mercancías y capitales y por otro limitamos la circulación de seres humanos. Las restricciones es obvio que no se aplican por igual a unos foráneos que a otros.
La Sociedad Española está estancada en su crecimiento demográfico. A pesar de la incorporación de la mujer al mercado de trabajo y del ciclo económico expansivo que hemos vivido, se observa un envejecimiento de la población , un elevado (ísimo diría yo) índice de paro, un empleo precario especialmente en la juventud y sin embargo, existen todavía –de forma paradigmática- ofertas de trabajo que quedan por cubrir, menos que hace un par de años por supuesto, pero todavía tenemos trabajadores que prefieren el cobro del subsidio a un puesto no deseado (otro tema interesante) .
Esta circunstancia social no es la misma de los años 60 y mucho menos de la época de la postguerra, en donde hubo muchos flujos migratorios. No parece proceder, por tanto, una comparación con la emigración que recibimos en España desde los 90.
Según datos del Centro de Documentación para Inmigrantes (Asociación Nexos), es especialmente a partir de 1996 cuando crece el colectivo de inmigrantes que recibimos y, en su mayoría del denominado 3er mundo.
Sobre un 100% , el conjunto de inmigrantes procedentes de la Unión Europea aún es , prácticamente la cuarta parte de los ciudadanos no nacionales, les siguen con otra cuarta parte los procedentes de África (especialmente Marruecos que por sí solo representa el 20% del total ), Sudamérica con unos niveles similares y el último 25% se lo distribuyen el antiguo bloque del este, Asia y Centroamérica. Pero en conjunto, aún estamos lejos de países como Francia que sí recibieron (en parte debido a su pasado colonial) un importante flujo migratorio.
Este boom significó una gran aportación a la afiliación de la Seguridad Social que ahora va a costar , y mucho compensar. Nos encontramos que los inmigrantes son una fuerza de trabajo importante pero también es cierto que se trata de mano de obra concentrada en pocas actividades , servicio doméstico, construcción, agricultura, hostelería y comercio. Comparando estos datos con los que aporta la OCDE, se observa que España supera a la media europea en la concentración de asalariados inmigrantes en lo sectores citados y es claramente inferior en sectores como sanidad, industria o administraciones públicas.
Como indica Saskia Sassen en su libro “Una sociología de la globalización”, los movimientos migratorios de trabajadores están insertos en una dinámica de desigualdad.
Afrontar esta situación va a suponer todo un reto en los próximos años.
©Ramón García Espeleta
La Sociedad Española está estancada en su crecimiento demográfico. A pesar de la incorporación de la mujer al mercado de trabajo y del ciclo económico expansivo que hemos vivido, se observa un envejecimiento de la población , un elevado (ísimo diría yo) índice de paro, un empleo precario especialmente en la juventud y sin embargo, existen todavía –de forma paradigmática- ofertas de trabajo que quedan por cubrir, menos que hace un par de años por supuesto, pero todavía tenemos trabajadores que prefieren el cobro del subsidio a un puesto no deseado (otro tema interesante) .
Esta circunstancia social no es la misma de los años 60 y mucho menos de la época de la postguerra, en donde hubo muchos flujos migratorios. No parece proceder, por tanto, una comparación con la emigración que recibimos en España desde los 90.
Según datos del Centro de Documentación para Inmigrantes (Asociación Nexos), es especialmente a partir de 1996 cuando crece el colectivo de inmigrantes que recibimos y, en su mayoría del denominado 3er mundo.
Sobre un 100% , el conjunto de inmigrantes procedentes de la Unión Europea aún es , prácticamente la cuarta parte de los ciudadanos no nacionales, les siguen con otra cuarta parte los procedentes de África (especialmente Marruecos que por sí solo representa el 20% del total ), Sudamérica con unos niveles similares y el último 25% se lo distribuyen el antiguo bloque del este, Asia y Centroamérica. Pero en conjunto, aún estamos lejos de países como Francia que sí recibieron (en parte debido a su pasado colonial) un importante flujo migratorio.
Este boom significó una gran aportación a la afiliación de la Seguridad Social que ahora va a costar , y mucho compensar. Nos encontramos que los inmigrantes son una fuerza de trabajo importante pero también es cierto que se trata de mano de obra concentrada en pocas actividades , servicio doméstico, construcción, agricultura, hostelería y comercio. Comparando estos datos con los que aporta la OCDE, se observa que España supera a la media europea en la concentración de asalariados inmigrantes en lo sectores citados y es claramente inferior en sectores como sanidad, industria o administraciones públicas.
Como indica Saskia Sassen en su libro “Una sociología de la globalización”, los movimientos migratorios de trabajadores están insertos en una dinámica de desigualdad.
Afrontar esta situación va a suponer todo un reto en los próximos años.
©Ramón García Espeleta
lunes, 6 de julio de 2009
Supervivencia
Sobrevivir. La vida es una lucha continua, mas aún en la Naturaleza, donde los peligros que acechan no son, hipotecas ni euribores, sino perder la propia vida. En este fragmento de la película de Jean-Jacques Annaud. "El oso" (1988) podemos casi vivir estas sensaciones, en un montaje técnico de primer nivel. ¿Se es leopardo?, ¿oso?, ¿acertamos en la estragegia?, ¿nos equivocamos?, ¿tenemos suerte?, ¿o no?. Al final no se tiene buena o mala suerte, pero según nuestro ánimo, en como afrontemos las situaciones, pueden pasar unas cosas u otras.
Que lo disfruteis
Que lo disfruteis
Ramón
domingo, 5 de julio de 2009
jueves, 2 de julio de 2009
Curso sobre aplicaciones de Internet
Para aquellos que no entiendan muy bien esto de las aplicaciones en internet, os publico un curso sobre el tema que he realizado con todo cariño.
Índice:
- 1 )Introducción
- 2) Requisitos de las aplicaciones
- 3) Cliente/Servidor
- 4) Peer-to-peer
- 5) Grid
- 6) Código Móvil
- 7) Bibliografía
1) Introducción
Internet ha ido evolucionando desde sus orígenes (desde lo que se dió en llamar ARPANET) , primero interconectando redes existentes y después desarrollando una enorme capacidad de soportar de forma eficaz las diferentes aplicaciones que han ido apareciendo – y que no cabe duda que seguirán haciéndolo- y de las que vamos a hablar en este módulo.
Dentro de estas aplicaciones podemos distinguir aquellas que tienen una Ubicación Única; como podría ser el campus virtual de cualquier organización (el de la UOC, por ejemplo) . O las que están distribuidas a través de la red. Estas últimas requieren que diferentes equipos se pasen datos de una forma u otra entre ellos y logra que estos equipos ejecuten procesos de forma independiente. Entre las aplicaciones más populares podemos encontrar algunas como, E-mule, Bit Torrent o Napster, entre otros.
Antes de describir los requisitos que debe tener cualquier aplicación o sistema en una aplicación o ubicación distribuida, es conveniente realizar un breve repaso a la forma en que identificamos cada aplicación o sus componentes. Tenemos en primer lugar la dirección IP (dirección en Internet) que es única y viene especificada por 4 números, separados por puntos, pudiendo cada uno de ellos ir del 0 al 255 . Averiguarla es sencillo, por ejemplo; la ip de nuestro ordenador la podremos averiguar mediante el comando “ipconfig/all”. En mi caso –éste ordenador- mi ip es 192.168.1.36. Y es única; normalmente existe un “servidor de direcciones” DCHP al que el ordenador, de forma automática, le solicita una IP y evita las duplicidades. Hay otras opciones pero no son objeto de este trabajo.
Un concepto muy importante es el “Domain Name Solver” o DNS que nos va a facilitar las cosas, ya que se podría traducir por un “nombrador de IP’s. Este servicio está organizado de forma que existe una jerarquía de dominios u subdominios. La DNS traducirá el nombre a la dirección de internet correspondiente y a nuestro TCP y de, esta forma, nuestro PC sabrá donde ir. Hemos visto el concepto “ dirección IP” pero hay otro concepto básico; el puerto.
El puerto es el lugar, dentro de la máquina, donde podemos ir vía TCP y tiene dos bytes por lo que puede ser desde el 0 al 65535 (estándar del 0 al 1023 y específicos del 1024 al 65535). La comunicación entre los PC’s precisa de una dirección y puerto origen y otra dirección y puerto destino, este canal de comunicación lo llamamos “Socket”. Esta capacidad de comunicarse entre las máquinas consigue que, desde el más potente ordenador al mas modesto PC conectado a internet, todas las maquinas sean “hosts”; ofrezcan servicios a otros ordenadores conectados entre si.
2) Requisitos de las aplicaciones
Como paso previo a la exposición de las diferentes aplicaciones que tenemos en la red, sus sistemas y arquitecturas, expondré de forma breve los requisitos que deberán ser tenidos en cuenta dichos sistemas y aplicaciones. El conocimiento de ellas nos permitirá evaluar su impacto y permitirá escoger el diseño mas adecuado:
· Heterogeneidad: Diferentes redes, sistemas, plataformas o lenguajes deben poder interactuar entre sí
· Apertura: Debe posibilitar su crecimiento y extensión por la red.
· Seguridad: Una aplicación distribuida en la red es vulnerable. Deberemos considerar tres aspectos; confidencialidad, integridad y disponibilidad.
· Concurrencia: El número de usuarios, la demanda simultanea de aplicaciones (transacciones por ejemplo) no debe bloquear los recursos.
· Escalabilidad: El sistema debe permitir crecer en recursos y usuarios.
· Comportamiento ante fallos: En el caso de sistemas distribuidos debe permitir que, aún fallando un componente, el resto del sistema continúe funcionando.
· Topología de redes: Deberemos considerar el tipo de red para considerar si la aplicación será accesible o no.
Desde los comienzos, Internet se mostró como una herramienta de comunicación muy eficaz, siendo utilizada desde el principio por personas dispersas geográficamente. Si al principio fue un elemento estratégico militar, pasando a intercambio de datos entre centros universitarios; el desarrollo de protocolos (especialmente el citado TCP/IP) y herramientas ha ido mejorando y aumentando sus capacidades.
Empezando por el correo electrónico, las primeras listas de distribución, los grupos de noticias (los newsgroup), los inicios del Telnet, hasta los protocolos FTP. Y llegando a los navegadores y la tecnología WAP. Internet hoy en día ya forma parte de nuestras vidas.
Procedo a comentar las diferentes aplicaciones que podemos encontrar en Internet, como observaremos a lo largo de la exposición; la evolución de Internet se va plasmando en aplicaciones cada vez mas complejas.
3) Cliente-Servidor
Comenzaremos por la mas tradicional; la Cliente-Servidor.
En este modelo el proceso de trabajo se divide en, como mínimo, dos procesos que cooperan entre sí. Uno se encarga de proporcionar los datos que se le solicitan y de procesar los datos que se le envía. Este proceso se llama Servidor y lo llamamos así tanto al proceso en sí como al equipo que lo soporta. El otro proceso, el Cliente, se ejecuta en el equipo del usuario que maneja la aplicación e inicia la comunicación con el servidor. Sus principales funciones son; demanda de datos, presentación al usuario y enviar cambios, si procede, al servidor.
Para realizar todas estas funciones precisamos los dos componentes ya citados, Cliente y Servidor. Y por supuesto la infraestructura de comunicaciones.
Con esta definición, prácticamente cualquier aplicación distribuida, podría considerarse una aplicación cliente-servidor. Sin embargo reservamos éste término para designar la arquitectura interna de ciertas aplicaciones en las cuales los componentes lógicos de los procesos se distribuyen de la forma más sencilla. EL cliente valida, presenta y manipula datos mientras que el servidor actúa como “almacén” de datos. Este modelo en su sencillez presenta ciertas ventajas, por un lado la existencia de plataformas de hardware cada vez más económicas, con la ventaja de que se pueden integrar diferentes sistemas, sin la necesidad de que tengan que utilizar el mismo sistema operativo. Los clientes pueden ser de dos tipos en función de aquel que envía la petición; Cliente navegador o Cliente robot. Y aunque en ambos casos el usuario/cliente solicita y recibe la información que envía el servidor son, en origen, diferentes. En el primer caso es el usuario el que dirige la petición a través de navegadores como el Explorer o Firefox. Estos programas permiten una presentación amigable de los resultados, utilizan por defecto el protocolo http y suelen manejar cookies. En el segundo las peticiones son automáticas y se utilizan spiders y agentes inteligentes los cuales parte de una página principal y examinan los enlaces que encuentran; la información se utiliza posteriormente en otras aplicaciones de búsqueda como google o yahoo. Este tipo de cliente tiene, a veces, problemas de acceso a sitios web que no desean ser indexados y controlan el acceso al cliente robot.
Y en cuanto al servidor que da servicio a los clientes se trata de un programa (hablamos tanto de hardware como de software) que contesta y genera la respuesta http a la petición del cliente, involucrando múltiples elementos (bases de datos o sripts, por ejemplo). La secuencia básica es sencilla, el cliente se conecta y envía petición al servidor que recibe el mensaje http de petición; lo procesa y envía en forma de mensaje también http el resultado. Son capaces de manejar múltiples conexiones individualizando cada conexión. Los servidores más populares son Apache e IIS.
.
De forma resumida, ser observa como puntos fuertes de la aplicación;
1. Coste de implementación baja
2. Mejor rendimiento al tener la información disponible.
3. Menor cantidad de software, lo que mejora la rapidez.
4. Posibilidad de usabilidad tanto desde el PC, como una PDA o Teléfono (wap)
Obviamente también plantea puntos débiles; precisamente la interactuación de diferentes elementos de software y hardware puede generar errores y fallos en la comunicación. Hay escasas herramientas eficaces para la administración de los procesos; por lo que se puede llegar a una congestión de la red. Sin contar con la limitación de contenidos en el servidor, que puede limitar la cantidad de información disponible. Algo que no ocurre en el modelo que veremos a continuación y que comparte la información entre los diferentes nodos que componen la aplicación. Y por supuesto existe la preocupación de la seguridad.
Por ello, como aspectos que penalizan esta aplicación se observa;
1. Cada estación de trabajo está consumiendo recursos del servidor.
2. Menos eficiente al tener que esperar la iniciativa del cliente.
3. Una aplicación propia en cliente o servidor dificultará la comunicación.
4. Requiere cierto software entre equipos cliente.
La aplicación basada en este modelo gestiona la información ubicada en los servidores web y utiliza como interfaz páginas web. La colección de páginas se gestiona mediante dinámicas tipo ASP o PHP, por ejemplo, y están agrupadas de forma lógica para dar servicio al usuario. Los ejemplos más claros serían la venta de libros o música por la red ,o la venta de billetes de avión.
Por tanto, una aplicación cliente servidor tiene cada vez mas un ámbito de actuación mas limitado y deberá escogerse en casos muy específicos en los que lo que valoremos sea el rendimiento y la simplicidad. Si precisamos compartir funcionalidades o mejorar la distribución, por ejemplo, deberemos optar por un modelo más abierto y más distribuido.
4) Peer-to-peer
Pasamos a observar otra aplicación distribuida; la peer-to-peer (o P2P).
En el modelo P2P todos los componentes de una aplicación pasan a ser “iguales”. Los “iguales” (peers) pueden actuar como clientes o como servidores, según requiera la aplicación. Hablamos en este caso de redes centralizadas y distribuidas en las que las aplicaciones pueden comunicarse entre si, intercambiando información sin que intervenga ningún servidor central (ya vimos al principio que todos los PC’s pueden funcionar como hosts). En “peer to peer” todos los nodos son tratados de igual forma, lo que permite una colaboración global, compartiendo información y recursos. Normalmente existe un directorio (distribuido) que facilita el intercambio. Este tipo de arquitectura se hizo muy popular gracias a Napster. Se trataba de un sistema sencillo y práctico, al margen del tema legal que empezaba a preocupar (y preocupa). Tras Napster vinieron Gnutella, KaZaa y otros que, como E-mule, tienen gran aceptación.
Dentro de la aplicación podemos entender también varias formas de tipo de red P2P; las centralizadas, las descentralizadas y las híbridas. En el primer caso un servidor sirve de nexo de enlace entre todos los nodos y distribuye a petición de los nodos; “reparte juego”. Napster es el referente.
La descentralizada permite a todos los nodos ser cliente y servidor, no existe un enrutador y obviamente menor control. Aquí nos encontramos con los citados Gnutella o FreeNet.
El híbrido o mixto tiene un servidor que únicamente sirve de enrutador, ya que la información está almacenada en los nodos. Aquí encontramos Bit-Torrent como claro ejemplo.
En estos tipos de aplicación los usuarios tienen la posibilidad de ofrecer, pedir y recoger todo tipo de información y esto hace de este tipo de servicio sea muy popular. Un ejemplo claro es E-mule, el cual posee un código abierto y ofrece la opción de colaborar en el proyecto, siendo los servidores un punto de entrada a recursos y contenidos. Este programa permite comprobar errores al descargar y realizar intercambio con usuarios amigos. El éxito ha generado la aparición de muchos otros programas de corte similar; Limewire, Soulseek, Groove, WinMx, Edonkey2000, o el citado al inicio; Bit-Torrent.
Diferente a lo anterior es la mensajería instantánea que, aunque no exactamente de igual a igual si se realiza dentro de una misma plataforma de cliente a cliente. El caso mas conocido es el Messenger.
Las características principales de este modelo de manera general son:
· La ausencia de un servidor Central para el control.
· Los usuarios pueden comunicarse entre si.
· No existe organización jerárquica.
· La información puede estar alojada en diversos servidores.
· Se equilibra la carga entre los participantes.
· Utiliza mejor las redes de comunicación.
· Se duplica la información para hacerla mas accesible.
· La caída de un nodo no bloquea el servicio.
· Optimiza los recursos.
· Escalabilidad y disponibilidad alta.
· Privacidad y anonimato por todas las partes.
· Robustez
Con una aplicación así ya mejoramos considerablemente la anterior de cliente/servidor y observamos claras ventajas:
1) Al incorporarse un nodo a la red se le da lo mismo que al resto, por tanto no obliga a reestructurar la red cuando se añaden nodos.
2) La Comunidad P2P tiene la capacidad de organizarse de forma natural en miles de redes más pequeñas, también virtuales, que pueden agruparse en función de sus intereses específicos. Si añadimos que los nodos no precisan estar conectados generamos una red con gran potencial de crecimiento.
3) Al haber una menor posibilidad de congestión y auto organización se crea una escalabilidad más sencilla.
4) Al ser conexiones punto a punto y de igual a igual no existen cuellos de botella.
Pero también puede plantear problemas:
1. Una mala calidad del servicio, al no haber control que puede derivar en :
- Datos corruptos
- Pérdida de datos
- Peticiones sin respuesta
- Corte del servicio si el nodo interrumpe su actividad
2. La estructura tan descentralizada lleva a una gestión mas compleja, mas cara y mas insegura como pueden ser:
- Virus
- Gusanos
- Troyanos
- Spyware
- Adware
Observamos una evolución clara frente al cliente/servidor, pero también sigue ofreciendo inconvenientes que deben ser tenidos en cuenta por el usuario. Y que, aunque a nivel social está teniendo mucho auge, a nivel comercial evoluciona lentamente.
5) Grid
Llegamos a uno de las últimas aplicaciones que nos están llegando; el Grid.
Leyendo diferentes artículos, se relaciona el Grid con la nueva generación de Internet, especialmente a partir de la aparición del nuevo protocolo Ipv6, que desarrolla un internet más rápido y accesible. Ello es debido a la importancia que tiene una elevada conectividad para esta aplicación, como veremos mas adelante.
El Grid (computación grid o “grid computing”) tiene elementos diferenciados con el resto de aplicaciones: Básicamente ofrece acceso a recursos computacionales sin que el usuario conozca la máquina que esta ofreciendo estos recursos. Es como si un ordenador fuese parte de un enorme ordenador. Esto permite aprovechar los momentos de baja carga de todos los ordenadores conectados. Una plataforma Grid de altas prestaciones permite involucrar a un conjunto heterogéneo de nodos que pueden estar en ubicaciones diferentes, poseer estructuras diferentes e incluso aplicaciones distintas.
El sistema permite el uso simultáneo de muchos ordenadores para aprovechar su potencia conjunta y realizar cálculos complejos. El caso más conocido es el programa SETI@home, en el que millones de personas están conectadas en un experimento científico en búsqueda de Inteligencia extraterrestre, o el programa Great Internet Mersenne Prime Search (GIMPS) cuyo objetivo es descubrir el mayor número primo.
La tecnología grid posibilita la resolución de problemas que serían demasiado costosos a nivel de infraestructura computacional y gestión para ser resueltos por una única máquina o un único clúster de estaciones de trabajo.
La analogía con la red eléctrica es evidente. Cualquier nodo conectado, desde cualquier lugar, con funcionamiento adecuado es asequible y usable. En pocos años esta tecnología debería permitir usar todo tipo de recursos que se encuentren distribuidos por la red, sean discos, red o dispositivos. Esta potencia deberá generar nuevas ideas de negocio, especialmente cuando hablamos de desarrollo de organizaciones virtuales, proveedores de recursos o demanda de los mismos. Imaginemos que varias empresas quieren forman una organización con el objetivo de colaborar en un proyecto común, compartiendo aplicaciones, datos y recursos computacionales. El trabajo conjunto logrará resolver problemas que, de forma individual, serían inabordables, al margen – pero no menos importante - de que los recursos propios se podrán amortizar antes e incluso utilizar aquellos que se encuentren infrautilizados. Las posibilidades para empresas que solicitan servicios en Tecnologías de Información son enormes, con la posibilidad cierta, mediante esta aplicación, de “subcontratar” recursos y servicios. El sistema grid se incrementa en escala y esa potencia requiere una constante autoconfiguración, tolerancia a caída de nodos conectados y tiene una gran escalabilidad, parámetros todos estos, en los que está bastante por delante de la aplicación peer to peer.
Las ventajas que ofrece la aplicación grid, por tanto, son claras;
· Una red grid no puede quedar obsoleta ya que todos los recursos se aprovechan.
· Esta aplicación brinda a sus usuarios velocidad, lo que en muchos aspectos supone una ventaja competitiva, sea en productos o servicios
· La posibilidad de compartir, acceder y gestionar información mediante la colaboración y la flexibilidad operacional es sencilla; ofreciendo recursos, personas y datos heterogéneos que pueden ser usados cuando sean necesarios.
· Seguridad a través de los “intergrids”
· Incremento exponencial de la potencia computacional sumando ordenadores de pequeño o mediano nivel.
· Tolerancia a fallos, si un nodo se colapsa, transmite su tarea a otro, con lo que se cumple la condición de red flexible y resistente.
Pero no está exenta de ciertos incovenientes, entre ellos:
· El paralelismo a la hora de ofrecer servicio puede ser un problema para aplicaciones locales.
· Para que el grid sea plenamente operativo precisa de servicio a internet con conexión 24 horas durante 365 días y con banda ancha.
· Además si hablamos de “Grid computing” necesitamos disponer de cierta seguridad propia, VPN, firewalls, encriptación (algo que no soportaba por ejemplo la primera aplicación citada; cliente/servidor), políticas de seguridad, etc.…
· La aplicación Grid debe posibilitar el manejo de cualquier recurso, sino deja de ser eficaz.
Es evidente que la aplicación Grid supone un avance con relación a otras aplicaciones, debido a su versatilidad, usos posibles y combinación de potencia, capaz de lograr una capacidad global inviable para un solo ordenador, aunque su dificultad todavía para sincronizar los procesos de todos los equipos de forma simultanea le resta capacidad, pero es escalable y tiene posibilidades de mejora. Su uso en el campo de la investigación se aprecia evidente: la simulación numérica tiene un enorme valor tanto en procesos de diseño como en cálculo de estructuras. Sea para aplicaciones meteorológicas, bioinformáticas u otro tipo, la precisión depende de la potencia total que podamos conseguir de los ordenadores tanto en almacenamiento como en proceso. Teniendo en cuenta los desafíos a los que nos enfrentamos durante los próximos años, es una aplicación a la que se prevé un gran crecimiento, que requerirá una labor de investigación y desarrollo que permita aprovechar toda esa potencia en red que estamos citando. Parte con una ventaja importante; no pretende competir con tecnologías existentes, al contrario, se trata de interconectar todos los recursos de los diferentes nodos y este despliegue de capacidades debe facilitar la superación de problemas científicos y técnicos.
6) Código Móvil
Finalmente comentaremos la influencia del código móvil en este tipo de arquitecturas.
Básicamente, el código móvil reside en un servidor WEB que cuando recibe la petición de un navegador (cliente o nodo) se descarga desde ése servidor ejecutándose en el cliente. Es una forma de superar las limitaciones a las que pueden enfrentarse algunas aplicaciones y puede mejorar de forma considerable el proceso de datos. Muchas de esas aplicaciones precisan de esa maquina virtual para poder ejecutarse. Las formas de código móvil más ampliamente utilizadas en Internet (sea la red, extranet, diferentes tipos de hosting o actividades comerciales) son los applets de Java, los controles ActiveX y VBScript.
Este tipo de tecnología que funciona de forma activa en el proceso no esta exenta de riesgos. Por un lado es complicada la protección, ya que puede vulnerar elementos de seguridad como podrían ser los firewalls o la encriptación de datos. Por otro puede controlar los movimientos del cliente, privándole de la confidencialidad.
Este tipo de herramientas puede, además, contener contenidos activos como virus, troyanos, gusanos, applets de Java y controles ActiveX maliciosos, o contenidos pasivos consistentes en correos electrónicos ofensivos, inapropiados o spam.
Tras todo lo citado y como resumen de, podemos concluir que cada aplicación puede tener un uso específico. Con sus puntos a favor y en contra todas ellas poseen argumentos para tener su público cliente, en función de lo que precisemos en cada momento. Si buscamos sencillez y economía de estructura, no compartiendo más información de la precisa, con mucha usabilidad, de forma rápida y con un servidor potente; el sistema cliente/servidor clásico nos podrá resolver la situación. Si la disponibilidad de grandes servidores dedicados a distribuir contenidos y recursos resulta compleja, podemos dispones de la arquitectura Peer-to-peer, donde los ordenadores clientes, funcionando como nodos interconectados, son servidores y clientes a la vez. Pero debemos asumir las dificultades que aporta su seguridad y gestión. Lo último, la tecnología Grid, aunque todavía en fase de crecimiento, aporta una potencia que sería impensable obtenerla de forma individual, pero es exigente con la infraestructura que debe disponer cada nodo, tanto en comunicaciones, como en hardware y software. El código móvil, por último, ayuda a completar la ejecución de tareas, pero hay que valorar los riesgos que corremos si ejecutamos algunas aplicaciones corruptas.
7) Bibliografía:
Artículos :
-Conceptes tecnològics bàsics d’Internet. Joan Manuel Marquès i Puig (Document UOC)
-Sistemas de ficheros distribuidos. Universidad del País Vasco
-Una visión global de la tecnología grid. Universidad Complutense de Madrid
-Computación Grid. Universidad Politécnica de Madrid.
-Conceptes Avançats de Sistemes Operatius. Universitat Politécnica de Catalunya
-Arquitecturas, paradigmas y aplicaciones de los sistemas distribuidos. Joan Manuel Marquès i Puig y otros.
-Sistemas Peer to Peer y Grid. Facultad de Informática de Universidad Nacional de La Plata
-Introducción a la programación distribuida. Universidad Europea de Madrid.
-research.calit2.net/cibio/archived/thegrid.pdf –
Webs:
- http://setiathome.ssl.berkeley.edu/
-http://www.emule-project.net/home/perl/general.cgi?l=17
-http://www.gridcomputing.com/
© Ramón García Espeleta
Índice:
- 1 )Introducción
- 2) Requisitos de las aplicaciones
- 3) Cliente/Servidor
- 4) Peer-to-peer
- 5) Grid
- 6) Código Móvil
- 7) Bibliografía
1) Introducción
Internet ha ido evolucionando desde sus orígenes (desde lo que se dió en llamar ARPANET) , primero interconectando redes existentes y después desarrollando una enorme capacidad de soportar de forma eficaz las diferentes aplicaciones que han ido apareciendo – y que no cabe duda que seguirán haciéndolo- y de las que vamos a hablar en este módulo.
Dentro de estas aplicaciones podemos distinguir aquellas que tienen una Ubicación Única; como podría ser el campus virtual de cualquier organización (el de la UOC, por ejemplo) . O las que están distribuidas a través de la red. Estas últimas requieren que diferentes equipos se pasen datos de una forma u otra entre ellos y logra que estos equipos ejecuten procesos de forma independiente. Entre las aplicaciones más populares podemos encontrar algunas como, E-mule, Bit Torrent o Napster, entre otros.
Antes de describir los requisitos que debe tener cualquier aplicación o sistema en una aplicación o ubicación distribuida, es conveniente realizar un breve repaso a la forma en que identificamos cada aplicación o sus componentes. Tenemos en primer lugar la dirección IP (dirección en Internet) que es única y viene especificada por 4 números, separados por puntos, pudiendo cada uno de ellos ir del 0 al 255 . Averiguarla es sencillo, por ejemplo; la ip de nuestro ordenador la podremos averiguar mediante el comando “ipconfig/all”. En mi caso –éste ordenador- mi ip es 192.168.1.36. Y es única; normalmente existe un “servidor de direcciones” DCHP al que el ordenador, de forma automática, le solicita una IP y evita las duplicidades. Hay otras opciones pero no son objeto de este trabajo.
Un concepto muy importante es el “Domain Name Solver” o DNS que nos va a facilitar las cosas, ya que se podría traducir por un “nombrador de IP’s. Este servicio está organizado de forma que existe una jerarquía de dominios u subdominios. La DNS traducirá el nombre a la dirección de internet correspondiente y a nuestro TCP y de, esta forma, nuestro PC sabrá donde ir. Hemos visto el concepto “ dirección IP” pero hay otro concepto básico; el puerto.
El puerto es el lugar, dentro de la máquina, donde podemos ir vía TCP y tiene dos bytes por lo que puede ser desde el 0 al 65535 (estándar del 0 al 1023 y específicos del 1024 al 65535). La comunicación entre los PC’s precisa de una dirección y puerto origen y otra dirección y puerto destino, este canal de comunicación lo llamamos “Socket”. Esta capacidad de comunicarse entre las máquinas consigue que, desde el más potente ordenador al mas modesto PC conectado a internet, todas las maquinas sean “hosts”; ofrezcan servicios a otros ordenadores conectados entre si.
2) Requisitos de las aplicaciones
Como paso previo a la exposición de las diferentes aplicaciones que tenemos en la red, sus sistemas y arquitecturas, expondré de forma breve los requisitos que deberán ser tenidos en cuenta dichos sistemas y aplicaciones. El conocimiento de ellas nos permitirá evaluar su impacto y permitirá escoger el diseño mas adecuado:
· Heterogeneidad: Diferentes redes, sistemas, plataformas o lenguajes deben poder interactuar entre sí
· Apertura: Debe posibilitar su crecimiento y extensión por la red.
· Seguridad: Una aplicación distribuida en la red es vulnerable. Deberemos considerar tres aspectos; confidencialidad, integridad y disponibilidad.
· Concurrencia: El número de usuarios, la demanda simultanea de aplicaciones (transacciones por ejemplo) no debe bloquear los recursos.
· Escalabilidad: El sistema debe permitir crecer en recursos y usuarios.
· Comportamiento ante fallos: En el caso de sistemas distribuidos debe permitir que, aún fallando un componente, el resto del sistema continúe funcionando.
· Topología de redes: Deberemos considerar el tipo de red para considerar si la aplicación será accesible o no.
Desde los comienzos, Internet se mostró como una herramienta de comunicación muy eficaz, siendo utilizada desde el principio por personas dispersas geográficamente. Si al principio fue un elemento estratégico militar, pasando a intercambio de datos entre centros universitarios; el desarrollo de protocolos (especialmente el citado TCP/IP) y herramientas ha ido mejorando y aumentando sus capacidades.
Empezando por el correo electrónico, las primeras listas de distribución, los grupos de noticias (los newsgroup), los inicios del Telnet, hasta los protocolos FTP. Y llegando a los navegadores y la tecnología WAP. Internet hoy en día ya forma parte de nuestras vidas.
Procedo a comentar las diferentes aplicaciones que podemos encontrar en Internet, como observaremos a lo largo de la exposición; la evolución de Internet se va plasmando en aplicaciones cada vez mas complejas.
3) Cliente-Servidor
Comenzaremos por la mas tradicional; la Cliente-Servidor.
En este modelo el proceso de trabajo se divide en, como mínimo, dos procesos que cooperan entre sí. Uno se encarga de proporcionar los datos que se le solicitan y de procesar los datos que se le envía. Este proceso se llama Servidor y lo llamamos así tanto al proceso en sí como al equipo que lo soporta. El otro proceso, el Cliente, se ejecuta en el equipo del usuario que maneja la aplicación e inicia la comunicación con el servidor. Sus principales funciones son; demanda de datos, presentación al usuario y enviar cambios, si procede, al servidor.
Para realizar todas estas funciones precisamos los dos componentes ya citados, Cliente y Servidor. Y por supuesto la infraestructura de comunicaciones.
Con esta definición, prácticamente cualquier aplicación distribuida, podría considerarse una aplicación cliente-servidor. Sin embargo reservamos éste término para designar la arquitectura interna de ciertas aplicaciones en las cuales los componentes lógicos de los procesos se distribuyen de la forma más sencilla. EL cliente valida, presenta y manipula datos mientras que el servidor actúa como “almacén” de datos. Este modelo en su sencillez presenta ciertas ventajas, por un lado la existencia de plataformas de hardware cada vez más económicas, con la ventaja de que se pueden integrar diferentes sistemas, sin la necesidad de que tengan que utilizar el mismo sistema operativo. Los clientes pueden ser de dos tipos en función de aquel que envía la petición; Cliente navegador o Cliente robot. Y aunque en ambos casos el usuario/cliente solicita y recibe la información que envía el servidor son, en origen, diferentes. En el primer caso es el usuario el que dirige la petición a través de navegadores como el Explorer o Firefox. Estos programas permiten una presentación amigable de los resultados, utilizan por defecto el protocolo http y suelen manejar cookies. En el segundo las peticiones son automáticas y se utilizan spiders y agentes inteligentes los cuales parte de una página principal y examinan los enlaces que encuentran; la información se utiliza posteriormente en otras aplicaciones de búsqueda como google o yahoo. Este tipo de cliente tiene, a veces, problemas de acceso a sitios web que no desean ser indexados y controlan el acceso al cliente robot.
Y en cuanto al servidor que da servicio a los clientes se trata de un programa (hablamos tanto de hardware como de software) que contesta y genera la respuesta http a la petición del cliente, involucrando múltiples elementos (bases de datos o sripts, por ejemplo). La secuencia básica es sencilla, el cliente se conecta y envía petición al servidor que recibe el mensaje http de petición; lo procesa y envía en forma de mensaje también http el resultado. Son capaces de manejar múltiples conexiones individualizando cada conexión. Los servidores más populares son Apache e IIS.
.
De forma resumida, ser observa como puntos fuertes de la aplicación;
1. Coste de implementación baja
2. Mejor rendimiento al tener la información disponible.
3. Menor cantidad de software, lo que mejora la rapidez.
4. Posibilidad de usabilidad tanto desde el PC, como una PDA o Teléfono (wap)
Obviamente también plantea puntos débiles; precisamente la interactuación de diferentes elementos de software y hardware puede generar errores y fallos en la comunicación. Hay escasas herramientas eficaces para la administración de los procesos; por lo que se puede llegar a una congestión de la red. Sin contar con la limitación de contenidos en el servidor, que puede limitar la cantidad de información disponible. Algo que no ocurre en el modelo que veremos a continuación y que comparte la información entre los diferentes nodos que componen la aplicación. Y por supuesto existe la preocupación de la seguridad.
Por ello, como aspectos que penalizan esta aplicación se observa;
1. Cada estación de trabajo está consumiendo recursos del servidor.
2. Menos eficiente al tener que esperar la iniciativa del cliente.
3. Una aplicación propia en cliente o servidor dificultará la comunicación.
4. Requiere cierto software entre equipos cliente.
La aplicación basada en este modelo gestiona la información ubicada en los servidores web y utiliza como interfaz páginas web. La colección de páginas se gestiona mediante dinámicas tipo ASP o PHP, por ejemplo, y están agrupadas de forma lógica para dar servicio al usuario. Los ejemplos más claros serían la venta de libros o música por la red ,o la venta de billetes de avión.
Por tanto, una aplicación cliente servidor tiene cada vez mas un ámbito de actuación mas limitado y deberá escogerse en casos muy específicos en los que lo que valoremos sea el rendimiento y la simplicidad. Si precisamos compartir funcionalidades o mejorar la distribución, por ejemplo, deberemos optar por un modelo más abierto y más distribuido.
4) Peer-to-peer
Pasamos a observar otra aplicación distribuida; la peer-to-peer (o P2P).
En el modelo P2P todos los componentes de una aplicación pasan a ser “iguales”. Los “iguales” (peers) pueden actuar como clientes o como servidores, según requiera la aplicación. Hablamos en este caso de redes centralizadas y distribuidas en las que las aplicaciones pueden comunicarse entre si, intercambiando información sin que intervenga ningún servidor central (ya vimos al principio que todos los PC’s pueden funcionar como hosts). En “peer to peer” todos los nodos son tratados de igual forma, lo que permite una colaboración global, compartiendo información y recursos. Normalmente existe un directorio (distribuido) que facilita el intercambio. Este tipo de arquitectura se hizo muy popular gracias a Napster. Se trataba de un sistema sencillo y práctico, al margen del tema legal que empezaba a preocupar (y preocupa). Tras Napster vinieron Gnutella, KaZaa y otros que, como E-mule, tienen gran aceptación.
Dentro de la aplicación podemos entender también varias formas de tipo de red P2P; las centralizadas, las descentralizadas y las híbridas. En el primer caso un servidor sirve de nexo de enlace entre todos los nodos y distribuye a petición de los nodos; “reparte juego”. Napster es el referente.
La descentralizada permite a todos los nodos ser cliente y servidor, no existe un enrutador y obviamente menor control. Aquí nos encontramos con los citados Gnutella o FreeNet.
El híbrido o mixto tiene un servidor que únicamente sirve de enrutador, ya que la información está almacenada en los nodos. Aquí encontramos Bit-Torrent como claro ejemplo.
En estos tipos de aplicación los usuarios tienen la posibilidad de ofrecer, pedir y recoger todo tipo de información y esto hace de este tipo de servicio sea muy popular. Un ejemplo claro es E-mule, el cual posee un código abierto y ofrece la opción de colaborar en el proyecto, siendo los servidores un punto de entrada a recursos y contenidos. Este programa permite comprobar errores al descargar y realizar intercambio con usuarios amigos. El éxito ha generado la aparición de muchos otros programas de corte similar; Limewire, Soulseek, Groove, WinMx, Edonkey2000, o el citado al inicio; Bit-Torrent.
Diferente a lo anterior es la mensajería instantánea que, aunque no exactamente de igual a igual si se realiza dentro de una misma plataforma de cliente a cliente. El caso mas conocido es el Messenger.
Las características principales de este modelo de manera general son:
· La ausencia de un servidor Central para el control.
· Los usuarios pueden comunicarse entre si.
· No existe organización jerárquica.
· La información puede estar alojada en diversos servidores.
· Se equilibra la carga entre los participantes.
· Utiliza mejor las redes de comunicación.
· Se duplica la información para hacerla mas accesible.
· La caída de un nodo no bloquea el servicio.
· Optimiza los recursos.
· Escalabilidad y disponibilidad alta.
· Privacidad y anonimato por todas las partes.
· Robustez
Con una aplicación así ya mejoramos considerablemente la anterior de cliente/servidor y observamos claras ventajas:
1) Al incorporarse un nodo a la red se le da lo mismo que al resto, por tanto no obliga a reestructurar la red cuando se añaden nodos.
2) La Comunidad P2P tiene la capacidad de organizarse de forma natural en miles de redes más pequeñas, también virtuales, que pueden agruparse en función de sus intereses específicos. Si añadimos que los nodos no precisan estar conectados generamos una red con gran potencial de crecimiento.
3) Al haber una menor posibilidad de congestión y auto organización se crea una escalabilidad más sencilla.
4) Al ser conexiones punto a punto y de igual a igual no existen cuellos de botella.
Pero también puede plantear problemas:
1. Una mala calidad del servicio, al no haber control que puede derivar en :
- Datos corruptos
- Pérdida de datos
- Peticiones sin respuesta
- Corte del servicio si el nodo interrumpe su actividad
2. La estructura tan descentralizada lleva a una gestión mas compleja, mas cara y mas insegura como pueden ser:
- Virus
- Gusanos
- Troyanos
- Spyware
- Adware
Observamos una evolución clara frente al cliente/servidor, pero también sigue ofreciendo inconvenientes que deben ser tenidos en cuenta por el usuario. Y que, aunque a nivel social está teniendo mucho auge, a nivel comercial evoluciona lentamente.
5) Grid
Llegamos a uno de las últimas aplicaciones que nos están llegando; el Grid.
Leyendo diferentes artículos, se relaciona el Grid con la nueva generación de Internet, especialmente a partir de la aparición del nuevo protocolo Ipv6, que desarrolla un internet más rápido y accesible. Ello es debido a la importancia que tiene una elevada conectividad para esta aplicación, como veremos mas adelante.
El Grid (computación grid o “grid computing”) tiene elementos diferenciados con el resto de aplicaciones: Básicamente ofrece acceso a recursos computacionales sin que el usuario conozca la máquina que esta ofreciendo estos recursos. Es como si un ordenador fuese parte de un enorme ordenador. Esto permite aprovechar los momentos de baja carga de todos los ordenadores conectados. Una plataforma Grid de altas prestaciones permite involucrar a un conjunto heterogéneo de nodos que pueden estar en ubicaciones diferentes, poseer estructuras diferentes e incluso aplicaciones distintas.
El sistema permite el uso simultáneo de muchos ordenadores para aprovechar su potencia conjunta y realizar cálculos complejos. El caso más conocido es el programa SETI@home, en el que millones de personas están conectadas en un experimento científico en búsqueda de Inteligencia extraterrestre, o el programa Great Internet Mersenne Prime Search (GIMPS) cuyo objetivo es descubrir el mayor número primo.
La tecnología grid posibilita la resolución de problemas que serían demasiado costosos a nivel de infraestructura computacional y gestión para ser resueltos por una única máquina o un único clúster de estaciones de trabajo.
La analogía con la red eléctrica es evidente. Cualquier nodo conectado, desde cualquier lugar, con funcionamiento adecuado es asequible y usable. En pocos años esta tecnología debería permitir usar todo tipo de recursos que se encuentren distribuidos por la red, sean discos, red o dispositivos. Esta potencia deberá generar nuevas ideas de negocio, especialmente cuando hablamos de desarrollo de organizaciones virtuales, proveedores de recursos o demanda de los mismos. Imaginemos que varias empresas quieren forman una organización con el objetivo de colaborar en un proyecto común, compartiendo aplicaciones, datos y recursos computacionales. El trabajo conjunto logrará resolver problemas que, de forma individual, serían inabordables, al margen – pero no menos importante - de que los recursos propios se podrán amortizar antes e incluso utilizar aquellos que se encuentren infrautilizados. Las posibilidades para empresas que solicitan servicios en Tecnologías de Información son enormes, con la posibilidad cierta, mediante esta aplicación, de “subcontratar” recursos y servicios. El sistema grid se incrementa en escala y esa potencia requiere una constante autoconfiguración, tolerancia a caída de nodos conectados y tiene una gran escalabilidad, parámetros todos estos, en los que está bastante por delante de la aplicación peer to peer.
Las ventajas que ofrece la aplicación grid, por tanto, son claras;
· Una red grid no puede quedar obsoleta ya que todos los recursos se aprovechan.
· Esta aplicación brinda a sus usuarios velocidad, lo que en muchos aspectos supone una ventaja competitiva, sea en productos o servicios
· La posibilidad de compartir, acceder y gestionar información mediante la colaboración y la flexibilidad operacional es sencilla; ofreciendo recursos, personas y datos heterogéneos que pueden ser usados cuando sean necesarios.
· Seguridad a través de los “intergrids”
· Incremento exponencial de la potencia computacional sumando ordenadores de pequeño o mediano nivel.
· Tolerancia a fallos, si un nodo se colapsa, transmite su tarea a otro, con lo que se cumple la condición de red flexible y resistente.
Pero no está exenta de ciertos incovenientes, entre ellos:
· El paralelismo a la hora de ofrecer servicio puede ser un problema para aplicaciones locales.
· Para que el grid sea plenamente operativo precisa de servicio a internet con conexión 24 horas durante 365 días y con banda ancha.
· Además si hablamos de “Grid computing” necesitamos disponer de cierta seguridad propia, VPN, firewalls, encriptación (algo que no soportaba por ejemplo la primera aplicación citada; cliente/servidor), políticas de seguridad, etc.…
· La aplicación Grid debe posibilitar el manejo de cualquier recurso, sino deja de ser eficaz.
Es evidente que la aplicación Grid supone un avance con relación a otras aplicaciones, debido a su versatilidad, usos posibles y combinación de potencia, capaz de lograr una capacidad global inviable para un solo ordenador, aunque su dificultad todavía para sincronizar los procesos de todos los equipos de forma simultanea le resta capacidad, pero es escalable y tiene posibilidades de mejora. Su uso en el campo de la investigación se aprecia evidente: la simulación numérica tiene un enorme valor tanto en procesos de diseño como en cálculo de estructuras. Sea para aplicaciones meteorológicas, bioinformáticas u otro tipo, la precisión depende de la potencia total que podamos conseguir de los ordenadores tanto en almacenamiento como en proceso. Teniendo en cuenta los desafíos a los que nos enfrentamos durante los próximos años, es una aplicación a la que se prevé un gran crecimiento, que requerirá una labor de investigación y desarrollo que permita aprovechar toda esa potencia en red que estamos citando. Parte con una ventaja importante; no pretende competir con tecnologías existentes, al contrario, se trata de interconectar todos los recursos de los diferentes nodos y este despliegue de capacidades debe facilitar la superación de problemas científicos y técnicos.
6) Código Móvil
Finalmente comentaremos la influencia del código móvil en este tipo de arquitecturas.
Básicamente, el código móvil reside en un servidor WEB que cuando recibe la petición de un navegador (cliente o nodo) se descarga desde ése servidor ejecutándose en el cliente. Es una forma de superar las limitaciones a las que pueden enfrentarse algunas aplicaciones y puede mejorar de forma considerable el proceso de datos. Muchas de esas aplicaciones precisan de esa maquina virtual para poder ejecutarse. Las formas de código móvil más ampliamente utilizadas en Internet (sea la red, extranet, diferentes tipos de hosting o actividades comerciales) son los applets de Java, los controles ActiveX y VBScript.
Este tipo de tecnología que funciona de forma activa en el proceso no esta exenta de riesgos. Por un lado es complicada la protección, ya que puede vulnerar elementos de seguridad como podrían ser los firewalls o la encriptación de datos. Por otro puede controlar los movimientos del cliente, privándole de la confidencialidad.
Este tipo de herramientas puede, además, contener contenidos activos como virus, troyanos, gusanos, applets de Java y controles ActiveX maliciosos, o contenidos pasivos consistentes en correos electrónicos ofensivos, inapropiados o spam.
Tras todo lo citado y como resumen de, podemos concluir que cada aplicación puede tener un uso específico. Con sus puntos a favor y en contra todas ellas poseen argumentos para tener su público cliente, en función de lo que precisemos en cada momento. Si buscamos sencillez y economía de estructura, no compartiendo más información de la precisa, con mucha usabilidad, de forma rápida y con un servidor potente; el sistema cliente/servidor clásico nos podrá resolver la situación. Si la disponibilidad de grandes servidores dedicados a distribuir contenidos y recursos resulta compleja, podemos dispones de la arquitectura Peer-to-peer, donde los ordenadores clientes, funcionando como nodos interconectados, son servidores y clientes a la vez. Pero debemos asumir las dificultades que aporta su seguridad y gestión. Lo último, la tecnología Grid, aunque todavía en fase de crecimiento, aporta una potencia que sería impensable obtenerla de forma individual, pero es exigente con la infraestructura que debe disponer cada nodo, tanto en comunicaciones, como en hardware y software. El código móvil, por último, ayuda a completar la ejecución de tareas, pero hay que valorar los riesgos que corremos si ejecutamos algunas aplicaciones corruptas.
7) Bibliografía:
Artículos :
-Conceptes tecnològics bàsics d’Internet. Joan Manuel Marquès i Puig (Document UOC)
-Sistemas de ficheros distribuidos. Universidad del País Vasco
-Una visión global de la tecnología grid. Universidad Complutense de Madrid
-Computación Grid. Universidad Politécnica de Madrid.
-Conceptes Avançats de Sistemes Operatius. Universitat Politécnica de Catalunya
-Arquitecturas, paradigmas y aplicaciones de los sistemas distribuidos. Joan Manuel Marquès i Puig y otros.
-Sistemas Peer to Peer y Grid. Facultad de Informática de Universidad Nacional de La Plata
-Introducción a la programación distribuida. Universidad Europea de Madrid.
-research.calit2.net/cibio/archived/thegrid.pdf –
Webs:
- http://setiathome.ssl.berkeley.edu/
-http://www.emule-project.net/home/perl/general.cgi?l=17
-http://www.gridcomputing.com/
© Ramón García Espeleta
.
Suscribirse a:
Comentarios (Atom)
Art 8 /26. Ciberseguridad en tiempos de IA. El castillo de las mil puertas y algunas de ellas sin cerradura. En el artículo anterior tratá...
-
Resumen Enlighted
-
Hola! Te invito a seguir mis artículos sobre la inteligencia artificial en Linkedin. Puedes acceder desde aquí: www.linkedin.com/in/ramonga...
-
Este jueves, 4 de Febrero tuvo lugar en el en el salón de actos del Complejo Deportivo “La Petxina” de Valencia, la presentación en Sociedad...