año 1 no. 1 revista digital - unam · tutorial de instalación de ubuntu 33 en este primer número...
TRANSCRIPT
http://tux2k.cuautitlan2.unam.mx/informatica
Aptana Studio, el mejor entorno de desarrollo web....pág. 6
Entrevista con Guadalupe Ibargüengoitia....pág. 15
Turtorial de instalación de Ubuntu....pág. 33
Revista Digital
http://tux2k.cuautitlan2.unam.mx/informatica
Año 1 No. 1
PARA CUALQUIER DUDA, COMENTARIO
O SUGERENCIA, ESCRIBENOS A:
ddeessppeerrttaarruumm@@ffeesscc..uunnaamm..mmxx
EEqquuiippoo DDeessppeerrttaarruumm
GGaabbrriieellaa AAgguuiillaarr [email protected]
AAnnaa GG.. VViillllaa [email protected]
SSoonniiaa AA.. MMoorraalleess [email protected]
EEmmmmaannuueell OOrrttíízz [email protected]
CCaarrllooss PPiinneeddaa MMuuññóó[email protected]
OOssccaarr RRaammíírreezz HHeerrnnáá[email protected]
IIvváánn LLaagguunnaass [email protected]
EEdduuaarrddoo DDee LLaaCCrruuzz [email protected]
DDaavviidd TToorrrreess [email protected]
JJuulliioo CC.. RRiivveerraa LLóó[email protected]
DDaanniieell GGaarrccííaa DDoommíí[email protected]
2
C
uando inicias algo lo haces porque estás convencido de una idea que se
te metió en la cabeza y no te puedes sacar, no tienes idea de si a alguien
le interesará, no sabes si esa razón por la que estás iniciando en algún
momento dejará de tener sentido; sólo tienes una idea en la mente, continuar,
y de que eso por lo que tomaste la decisión de empezar perdure.
Muchos alumnos de la carrera de Informática nos hemos dado cuenta de
cómo poco a poco ésta se ha ido perdiendo dentro de la FES, las
publicaciones que surgen son escasas o nulas, simplemente no hay
eventos. Pero como en todos los lugares siempre hay personas que
intentan cosas diferentes y tienen ideas comunes, de entre los alumnos de
Informática surgió un grupo que está interesado en lograr que la carrera
despierte y se deje escuchar dentro de la Facultad, de intentar que los
alumnos empiecen a participar y a convivir entre ellos. En este momento
se está iniciando un proyecto que tal vez para muchas personas parecerá
insignificante o irrelevante, y estamos conscientes de que tal vez nos
vayamos y ésto se quedará en el olvido, pero también tenemos la
esperanza de que puede ocurrir lo contrario, que ésto que estamos
haciendo tenga repercusión entre los alumnos y pueda ayudarlos de
alguna manera en su desempeño académico.
En ningún momento este proyecto tiene el propósito de sacar provecho de
algún tipo, lo hacemos con la idea común de que esta carrera puede y debe
dar más, sabemos que puede levantarse si entre todos colaboramos y de esta
forma podremos decir que ha despertado, sabemos que como todo en el
universo esto algún día terminará, no sabemos cómo, no sabemos cuándo, no
sabemos si termine bien o si termine mal, sólo sabemos que esto tendrá un
final, y mientras ese final llega, nosotros estamos comprometidos a mes con
mes tratar de alcanzar junto a ustedes la utopía del conocimiento.
Equipo Despertarum
3
Página
E
E
d
d
i
i
t
t
o
o
r
r
i
i
a
a
l
l
3
3
A
A
C
C
T
T
U
U
A
A
L
L
I
I
Z
Z
A
A
C
C
I
I
O
O
N
N
E
E
S
S
A
A
p
p
t
t
a
a
n
n
a
a
S
S
t
t
u
u
d
d
i
i
o
o
,
,
e
e
l
l
m
m
e
e
j
j
o
o
r
r
e
e
n
n
t
t
o
o
r
r
n
n
o
o
p
p
a
a
r
r
a
a
d
d
e
e
s
s
a
a
r
r
r
r
o
o
l
l
l
l
o
o
d
d
e
e
a
a
p
p
l
l
i
i
c
c
a
a
c
c
i
i
o
o
n
n
e
e
s
s
w
w
e
e
b
b
6
6
Por: Emmanuel Ortíz Cruz
El proceso de programación es la etapa más difícil y engorrosa del
desarrollo de aplicaciones, ya sean de escritorio o web...si lo que
se desea es tener un potente entorno de desarrollo web, Aptana
Studio es la aplicación indicada.
4
4
5
5
N
N
M
M
o
o
e
e
l
l
s
s
i
i
g
g
u
u
i
i
e
e
n
n
t
t
e
e
g
g
o
o
l
l
p
p
e
e
d
d
e
e
I
I
n
n
t
t
e
e
l
l
9
9
Por: Iván Lagunas Salazar
Intel Corporation parece adelantarse a su competidora AMD y dar
el siguiente golpe, consiste en un nuevo proceso que supone el
cambio de los transistores de 65nm a los de 45nm, un gran
avance en la tecnología de microprocesamiento.
D
D
i
i
s
s
p
p
o
o
s
s
i
i
t
t
i
i
v
v
o
o
s
s
m
m
ó
ó
v
v
i
i
l
l
e
e
s
s
,
,
p
p
e
e
q
q
u
u
e
e
ñ
ñ
o
o
s
s
y
y
p
p
o
o
d
d
e
e
r
r
o
o
s
s
o
o
s
s
1
1
1
1
Por: Julio César Rivera López
Se dio vida a un proyecto, el cual tenía como objetivo principal
crear un dispositivo de pequeñas dimensiones con capacidades
iguales o similares a la de una computadora portátil con la finalidad
permitirnos ser más productivos sin importar donde nos
encontremos.
B
B
a
a
n
n
a
a
n
n
a
a
S
S
c
c
r
r
e
e
e
e
n
n
,
,
p
p
r
r
o
o
t
t
e
e
c
c
c
c
i
i
ó
ó
n
n
b
b
i
i
o
o
m
m
é
é
t
t
r
r
i
i
c
c
a
a
a
a
l
l
a
a
l
l
c
c
a
a
n
n
c
c
e
e
d
d
e
e
t
t
o
o
d
d
o
o
s
s
1
1
3
3
Por: Gabriela Aguilar Mendoza
Si tienes webcam, tienes curiosidad por saber cómo funciona un
sistema de este tipo y quieres tener más protegida tu información,
actualmente se puede descargar este software y de forma gratuita.
P
P
L
L
A
A
T
T
I
I
C
C
A
A
N
N
D
D
O
O
C
C
O
O
N
N
.
.
.
.
.
.
E
E
n
n
t
t
r
r
e
e
v
v
i
i
s
s
t
t
a
a
c
c
o
o
n
n
l
l
a
a
M
M
a
a
e
e
s
s
t
t
r
r
a
a
e
e
n
n
C
C
i
i
e
e
n
n
c
c
i
i
a
a
s
s
G
G
u
u
a
a
d
d
a
a
l
l
u
u
p
p
e
e
I
I
b
b
a
a
r
r
g
g
ü
ü
e
e
n
n
g
g
o
o
i
i
t
t
i
i
a
a
1
1
5
5
En este nuestro primer número, nos complace presentar la
entrevista realizada a la Maestra Guadalupe el 9 de enero del
presente año, en la Facultad de Ciencias, C.U.
CCoonntteenniiddoo
4
5
Página
S
S
I
I
S
S
T
T
E
E
M
M
A
A
S
S
O
O
P
P
E
E
R
R
A
A
T
T
I
I
V
V
O
O
S
S
1
1
9
9
T
T
U
U
T
T
O
O
R
R
I
I
A
A
L
L
E
E
S
S
T
T
u
u
t
t
o
o
r
r
i
i
a
a
l
l
d
d
e
e
i
i
n
n
s
s
t
t
a
a
l
l
a
a
c
c
i
i
ó
ó
n
n
d
d
e
e
U
U
b
b
u
u
n
n
t
t
u
u
3
3
3
3
En este primer número iremos paso a paso en la instalación de
Ubuntu. Así es que si estás listo para explorar nuevas cosas,
adelante.
V
V
i
i
r
r
t
t
u
u
a
a
l
l
i
i
z
z
a
a
c
c
i
i
ó
ó
n
n
c
c
o
o
n
n
V
V
i
i
r
r
t
t
u
u
a
a
l
l
B
B
o
o
x
x
4
4
0
0
VirtualBox es un programa de virtualización capaz de instalar en
nuestra computadora sistemas operativos basados en Windows y en
Linux de 32bits, aunque también hay una versión beta para MacOS
X.
O
O
P
P
I
I
N
N
I
I
Ó
Ó
N
N
D
D
E
E
.
.
.
.
.
.
J
J
a
a
v
v
i
i
e
e
r
r
L
L
ó
ó
p
p
e
e
z
z
F
F
l
l
o
o
r
r
e
e
s
s
4
4
4
4
Egresado de la Lic. en Informática
:: La historia del botón rojo
A
A
c
c
t
t
u
u
a
a
l
l
i
i
z
z
a
a
c
c
i
i
o
o
n
n
e
e
s
s
APTANA STUDIO, EL MEJOR ENTORNO PARA
DESARROLLO DE APLICACIONES WEB
Emmanuel Ortíz Cruz
E
l proceso de programación es la
etapa más difícil y engorrosa del
desarrollo de aplicaciones, ya sean de
escritorio o web; en el caso del
desarrollo de aplicaciones web se vuelve
aún más complicado ya que la mayoría
de los desarrolladores utilizan un editor
de texto que cuenta con resaltado de
sintaxis y sus aplicaciones las visualizan
en varios navegadores para asegurarse
de que lo que están haciendo sea
correctamente visible para la mayoría de
las personas.
Cuando el sitio web que se desarrolla
cuenta con gran cantidad de páginas o
el desarrollo de scripts del lado servidor
contiene errores la codificación se
complica demasiado, por esa razón han
surgido gran cantidad de entornos de
desarrollo que nos permiten disminuir el
tiempo de desarrollo en gran medida.
Aptana Studio es un Entorno de
Desarrollo Integrado (IDE por sus siglas
en inglés) basado en el popular Eclipse
(orientado para desarrollar aplicaciones
en Java), cuyo objetivo es el desarrollo
de aplicaciones Web, incluyendo no solo
herramientas para el desarrollo del lado
cliente sino también para el lado
servidor mediante un plug-in (agregado
que permite realizar operaciones
especiales) que se puede descargar e
instalar directamente desde su sitio web.
Este IDE apareció en el año 2006 como
una herramienta para los programadores
para realizar aplicaciones con AJAX, CSS
y demás, ahora después de más de un
año de su aparición, es una alternativa
bastante poderosa para los
programadores de aplicaciones web,
cuenta con la importante característica
de poder instalar plug-ins que hacen a
Aptana Studio aún más poderoso de lo
que es. Aptana Studio está disponible en
dos versiones:
La versión comunidad (Community
edition) es la versión disponible para
todas las personas interesadas, y se
puede descargar directamente desde su
sitio web http://www.aptana.com, ésta
cuenta con todas las funcionalidades
básicas del IDE:
•
•
Edición de texto.
•
•
Debugging (Depuración de errores)
6
Logo de Aptana Studio
•
•
Sincronización y administración de
proyectos
La versión profesional (Professional
edition) es la versión de paga del Aptana
Studio, la cual cuenta con todas las
características de la Community Edition,
mas algunas características extras
aunque no son necesarias para trabajar
con el IDE, algunas de las más
importantes de estas características son
el soporte técnico, algunos plug-ins que
sólo están disponibles para esta versión
(como por ejemplo el debug en Internet
Explorer, ya que la versión comunidad
sólo tiene disponible el debug para
Firefox, aunque éste debe ser suficiente
para desarrollar aplicaciones completas
y de calidad) y plug-ins para el soporte
de los protocolos FTPS y SFTP (que
permiten la transferencia segura de
archivos a los servidores).
Aptana Studio se distribuye bajo licencia
dual, amparado por la General Public
License (GPL) y la Aptana Public License
(APL), lo que permite que se pueda
obtener el código fuente de la aplicación,
así como poder modificarla y a su vez
obtener licencia para su uso y
distribución.
Aptana Studio
está disponible
para Linux,
Windows y
MacOS, la
descarga del
software
ocupa unos 85
MB y se puede
hacer desde la
propia página
de Aptana. Al
instalar
Aptana Studio
obtenemos el entorno con soporte para
HTML, CSS y Javascript; pero después
podremos instalar plug-ins para disponer
también del editor PHP, Ruby on Rails y
otros, como soporte para Adobe AIR y el
desarrollo para iPhone.
Estas son algunas de las características
principales de Aptana Studio:
•
•
Ayudas visuales al momento de
escribir scripts en los diferentes
lenguajes disponibles, como resaltado
de color y autocompletado de código.
•
•
Visualización de errores de sintaxis a
medida que se escribe.
•
•
Soporte para hacer FTP a servidores
remotos con herramientas para
sincronización.
•
•
Debug en Firefox (Debug Internet
Explorer también con la versión
Profesional).
7
Visualización de errores de sintaxis
•
•
Librerías de funciones en Javascript
populares en Ajax/Javascript para
utilizar en los proyectos.
•
•
Ejemplos ya creados para empezar a
conocer las posibilidades de desarrollo
rápidamente.
•
•
Previsualización de estilos CSS con el
editor CSS.
•
•
Extensible a partir de plug-ins que
puede crear Aptana u otras empresas
y herramientas para estar al tanto de
cualquier nuevo añadido.
•
•
Extensible por Javascript. Los usuarios
pueden escribir scripts para realizar
acciones y macros.
•
•
Los Snippets permiten insertar
fragmentos de texto que se utilizan
muy a menudo.
•
•
Y un largo etc...
Quizá algunas de las desventajas de
Aptana Studio son que al ejecutarse
sobre la maquina virtual de Java
consume muchos recursos de la
computadora y que el entorno está
totalmente en inglés, pero si lo que se
desea es tener un potente entorno de
desarrollo web Aptana Studio es la
aplicación indicada.
8
Autocompletado de texto y soporte para navegadores
C
omo todos sabemos, la disputa
entre las dos compañías líderes en
elaboración de microprocesadores
(INTEL Y AMD), ha resultado una de las
batallas más grandes dentro del mundo
de la informática. Este mundo donde
sólo los que tienen una mayor visión y
capacidad de adaptarse logran
sobrevivir, el mundo de la información
computarizada que ha visto caer a los
que parecen más sólidos y fuertes, así
como ha visto convertirse a pequeñas
compañías en los gigantes de la
computación, nos presenta una de las
más memorables guerras sin cuartel,
sólo equiparable con la guerra de los
grandes “titanes” dueños del universo
de la información automatizada:
Microsoft vs. Apple, HP vs. Acer, o la
reciente Microsoft vs. Google.
Y es que desde sus inicios, la compañía
del señor Gordon E. Moore le ha llevado
la delantera a su competidora Advanced
Micro Devices (AMD), inclusive en su
fecha de creación; Intel se creó en 1968,
mientras que su competidora se fundó
en 1969. Desde un principio Intel
acaparó el mercado de los
microprocesadores, siendo su principal
arma el marketing comercial y la
publicidad, mientras que AMD siempre
se mantuvo rezagado, al acecho,
investigando y desarrollando
importantes avances sobre los
microprocesadores, esperando su
oportunidad, la cuál se dio en los años
recientes.
AMD lanzó al mercado comercial los
microprocesadores de 64 bits antes que
cualquier otra compañía, incluyendo la
del Sr. Gordon, ésto le significó un
avance importante al abrirse campo en
el mercado, acrecentando su
popularidad y aceptación. Incluso su
antagonista no tardó en reconocer que
se le había adelantado y ganado una
partida, y de inmediato lanzó su versión
de microprocesadores de 64 bits.
Ahora Intel Corporation parece
adelantarse a su competidora y dar el
siguiente golpe, un golpe que consiste
en un nuevo proceso que supone el
cambio de los transistores de 65nm
(nanómetros) a los de 45nm, un gran
avance en la tecnología de
microprocesamiento. Estos nuevos
transistores constituirán los nuevos
procesadores que la compañía lanzará
en definitiva para este 2008, lo cuál sólo
marca el paso siguiente en la rápida
cadencia de Intel de ofrecer una nueva
45NM Ó EL SIGUIENTE GOLPE DE INTEL
Iván Lagunas Salazar
9
AMD vs. Intel
10
tecnología de proceso y una nueva micro-
arquitectura cada tercer año.
Así, esta gran empresa es la primera en
implementar una combinación
innovadora de nuevos materiales que
reduce drásticamente las fugas en los
transistores e incrementa el desempeño
de su tecnología de proceso de 45nm. La
compañía utilizará un nuevo material con
una propiedad llamada high-k para el
componente dieléctrico de la compuerta
del transistor, y una nueva combinación
de materiales metálicos para el
electrodo de la compuerta del transistor.
Para entender mejor ésto, podemos decir
que los transistores son switches
diminutos que procesan los unos y ceros
de las computadoras. La compuerta
enciende y apaga el transistor, y el
componente dieléctrico de la compuerta
es un aislante situado por debajo de
éste, que lo separa del canal donde
circula la corriente. La combinación de
las compuertas metálicas y el
componente dieléctrico de compuerta
high-k da como resultado transistores
con fuga de corriente muy baja y un
mucho mejor desempeño.
Se presume que estos nuevos
procesadores alcanzarán los 3.33GHz
con 3MB de caché por núcleo, lo que
hace un total de 12MB de caché de
segundo nivel en las versiones de cuatro
núcleos. También el tener los 45nm
supondrá otras ventajas como: el que se
puedan incrementar las velocidades de
reloj del núcleo, tener más núcleos por
procesador, además se tendrá más
memoria caché por procesador y un
rendimiento por watts que según Intel
llegaría al 300%.
Así bien, ante una batalla tan incansable
como ésta... estaremos expectantes de
la inmediata respuesta de la
competencia.
10
Chip de 45 nm
Presentación de los procesadores
1 1
11
DISPOSITIVOS MÓVILES; PEQUEÑOS
Y PODEROSOS
Julio César Rivera López
S
i bien Intel es conocida por la
investigación, desarrollo y
manufactura de procesadores para
computadoras tanto de escritorio como
portátiles, también cuenta con una
división dedicada a la creación de
nuevas tecnologías; así con el apoyo y
alianza de empresas lideres en el mundo
de la tecnología como Microsoft y Sony
por mencionar algunos, se dio vida a un
proyecto, el cual tenía como objetivo
principal crear un dispositivo de
pequeñas dimensiones con capacidades
iguales o similares a la de una
computadora portátil, con la finalidad de
permitirnos ser más productivos sin
importar dónde nos encontremos. Por
tanto, ya se ha gestado la Ultra Mobile
Personal Computer (UMPC) y el MID
(Mobile Internet Device), el primero
dirigido a profesionales y el segundo
orientado a usuarios para satisfacer sus
necesidades básicas.
Es así, como Intel ha integrado en una
misma placa un procesador de ultima
generación, una tarjeta gráfica y una
tarjeta de red inalámbrica, permitiendo
que empresas como Sony, HTC, Fujitsu,
entre otras, logren liberar la primera
generación de esta clase de dispositivos
móviles, mismos que poseen sistemas
operativos (Linux Fedora o Windows
Vista) eficazmente adaptados y
funcionales para permitir al usuario
disfrutar archivos multimedia (música,
fotos ó videos), navegar por Internet;
crear, revisar y responder correo
electrónico, conectarse a diversos
servicios (mensajería instantánea),
revisar, crear y modificar archivos de
texto, hojas de cálculo y presentaciones;
instalar mapas para sistemas de
posicionamiento global, disfrutar los
videojuegos preferidos, e incluso instalar
soluciones integrales empresariales
como SAP, todo lo anterior con la
propuesta de maximizar la vida útil de la
batería para lograr un mejor rendimiento
del equipo.
Sony Vaio UX
Samsung QIU -V 7''
12
Estos dispositivos han tenido una
excelente demanda, por lo que
actualmente se está trabajando en
alianzas que permitan ofrecer una
amplia gama de aplicaciones para llamar
la atención de una gran variedad de
profesionales y usuarios. Por lo mismo se
augura que estos dispositivos
evolucionen, prueba de ello es que ya se
emprende una nueva generación de
UMPC´s y MID´s que tendrán integrados
procesadores de 45 nanómetros, que son
mas pequeños y poderosos, con
tecnologías inalámbricas 3G, Bluetooth,
WiFi y Wi-Max, mejoras en las pantallas
táctiles, así como el uso de memorias
flash de mayor capacidad, con la certeza
y el objetivo de ofrecer al usuario una
verdadera experiencia de movilidad con
todos los beneficios de alto rendimiento
y de vanguardia que ésto conlleva.
Sin lugar a duda, el éxito y proyección de
estos dispositivos, sobre todo en países
con economías en vías de desarrollo,
depende en gran medida de la evolución
de redes inalámbricas de largo alcance
(Wi-Max), del coste de los servicios de
datos móviles y de satisfacer
requerimientos o necesidades reales,
demostrando que la inversión finalmente
refleja beneficios para el usuario,
logrando que estos ultra móviles se
puedan popularizar y estén al alcance
del usuario en general.
Intel MID, Sistema Operativo Linux
1 3
¿
Protección
Biométrica?,
¿BannanaScreen?
¡¡¡¡¡¿De qué estamos hablando?!!!!. Es
lo primero que la mayoría nos
preguntamos cuando escuchamos hablar
sobre los sistemas biométricos, por lo
cual primero debemos de conocer qué
es la biometría, y básicamente se refiere
a la aplicación de tecnologías de la
informática, es decir, los sistemas
obtienen información de los rasgos
físicos o de conducta de un individuo,
que es transformada en un algoritmo
matemático con el fin de verificar
identidades o personas.
Los sistemas biométricos más usuales
en rasgos físicos se enfocan en las
huellas dactilares, el iris, los patrones
faciales, patrones de venas de la mano o
la geometría de la palma de la mano,
mientras que desde el comportamiento
se incluye la firma, el paso y la fuerza al
escribir en el teclado. La voz se
considera una mezcla de características
físicas y del comportamiento, pero todos
los rasgos biométricos comparten
aspectos físicos y del comportamiento.
La biometría es utilizada para proteger o
restringir el acceso a cierto objeto o
información, este sistema de seguridad
frente a otras formas de autentificación
personal como el uso de tarjetas o
PINes, tienen la ventaja de que los
patrones no pueden perderse o ser
sustraídos. Las tecnologías actuales
tienen tasas de error que varían
ampliamente desde valores bajos como
el 60%, hasta altos como el 99,9%, pero
tienen un potencial para identificar a
individuos con un grado de certeza muy
alto.
Los dispositivos biométricos tienen tres
partes principales: un mecanismo
automático que lee y captura una
imagen digital o analógica; una entidad
para manejar aspectos como la
comprensión, almacenamiento y
comparación, y también ofrece una
interfaz para las aplicaciones que los
utilizan.
Es importante mencionar que hasta hace
poco tiempo, utilizar esta tecnología era
un privilegio de seguridad debido a los
altos costos, pero actualmente cuentan
con más facilidad para el acceso a estos
sistemas y con sencillos accesorios
como lo es tan solo una cámara Web.
Si tienes webcam, tienes curiosidad por
saber cómo funciona un sistema de este
tipo y quieres tener más protegida tu
información, actualmente se puede
descargar un software y de forma
gratuita.
BananaScreen es un software que se
puede descargar de forma gratuita, éste
es distribuido por BananaSecurity, y es
BANANASCREEN
PROTECCIÓN BIOMÉTRICA AL ALCANCE DE TODOS
Gabriela Aguilar Mendoza
14
enfocado a patrones faciales, es muy
sencillo al momento de instalarse y es
muy fácil configurar el acceso a la
computadora, de tal forma que solo tú
puedas acceder simplemente colocando
tu cara frente a la webcam.
Para configurar tu cara por primera vez,
el BannanaScreen te tomará una foto y
te pedirá una contraseña.
Cuando pases un tiempo sin usar la PC,
automáticamente BannanaScreen
bloquea la máquina y para activarla es
necesario tu rostro, así evitarás el acceso
FÍSICO de otros usuarios a tu máquina.
Es importante señalar que la contraseña
que te solicita al principio es útil si
cambias tu imagen, pues con ésta
puedes tomar la foto que se configurará
para seguridad del equipo; es fácil,
introduces la contraseña y
BananaScreen te toma nuevamente la
foto con tu nuevo aspecto.
Descargar BananaScreen
Para utilizar este software no es
necesario ningún tipo de cámara,
cualquiera puede funcionar, ya que solo
reconoce la fisonomía de la cara de un
usuario, lo traduce en una contraseña
que está codificada numéricamente para
simular o sustituir la acción de teclear el
Nip, ésto hace que se analice la cara de
cualquier persona que intente tener
acceso a la computadora.
El software BananaScreen aunque es en
BETA, sigue siendo una buena
alternativa para quienes olvidan
continuamente sus contraseñas.
Como medida de seguridad,
BananaScreen siempre da la posibilidad
de teclear la contraseña, con lo cual este
sistema ofrece una alternativa a la clave
y no una sustitución.
Si estás interesado en este software de
prueba, es necesario que conozcas que
sólo está disponible para Windows y
pronto para Mac OS, y que al ser de
prueba, éste puede tener fallas o ser
burlado fácilmente. Está enfocado a un
sistema monousuario, que sucedería si
se tiene que compartir la computadora
con otro usuario. Además de que es fácil
de usar y configurar, es gratuito, puede
ser funcional y tiene la ventaja de que ya
no tendrás que recordar más
contraseñas.
REFERENCIAS:
http://es.wikipedia.org/wiki/Biometr%C3%ADa
http://www.libroslibres.org/Manuales-
LuCAS/doc-unixsec/unixsec-
html/node113.html
http://www.dragonjar.us/proteccion-
biometrica-al-alcance-de-
todos.xhtml+biometrica&hl=es&ct=clnk&cd=
15&gl=mx&client=firefox-a
Intel MID, Sistema Operativo Linux
En este nuestro primer número, nos
complace presentar la entrevista realizada a
la Maestra Guadalupe
(
(
M
M
.
.
G
G
.
.
)
) el 9 de enero
del presente año, en la Facultad de Ciencias,
C.U.
Equipo Despertarum
(
(
E
E
.
.
D
D
.
.
)
)
E. D. ¿Qué asignaturas imparte?, y ¿A qué
nivel lo hace?
M.G.: …mi obligación son dos cursos cada
semestre, imparto uno en la licenciatura y
uno en el posgrado; en la licenciatura imparto
en los semestres nones la materia de
“Ingeniería de Software”, que es una materia
de séptimo semestre de la carrera de
Ciencias de la Computación, y en los
semestres pares en la misma licenciatura
imparto una materia que se llama “Temas
Avanzados de Ingeniería de Software”, en
donde lo que trato es de ver qué es lo más
interesante o lo más novedoso que hay, ... en
la materia de Ingeniería de Software
utilizamos un método pesado de UML, que
es el proceso unificado para desarrollo de
software; entonces quiero dar distintos
temas, vamos a trabajar métodos ágiles,
métricas de software, y empezar a probar
con un lenguaje de programación que no es
muy nuevo, pero que sí está empezando a
hablarse y a popularizarse mucho, se llama
RUBY, entonces el ambiente de
programación de este lenguaje se llama
RUBY on Rails, así como Eclipse podría ser
un ambiente de programación para
desarrollos en Java, para RUBY es éste; este
lenguaje RUBY es muy interesante porque
es un lenguaje 100% orientado a objetos
para desarrollo de software en Internet,
entonces, y según mis alumnos del último
semestre, es una maravilla el lenguaje,
¡vamos a ver si es cierto!, entonces para
empezar, compré dos libros y a ver, tengo
todo enero para aprender antes de
empezarles a enseñar a los alumnos; esos
son los cursos en la licenciatura. En la
maestría imparto en los semestres pares,
para los alumnos del segundo semestre una
materia que se llama “Tecnología Orientada a
Objetos”, y el objetivo de esta materia es
aprender un proceso para el desarrollo de
software orientado a objetos y conceptos
importantes como: patrones, ambientes
Rapid Application Development (RAD), que
son dirigidos por la arquitectura para que los
alumnos a la hora de que hacen sus modelos
vayan construyendo el software, etc. Éso es
en los semestres pares y cuando pasan a
tercer semestre entonces conjuntamente con
la Dra. Hana Oktaba, impartimos una materia
que se llama “Ingeniería de Software
Orientada a Objetos ”, y ahí el objetivo es
que sean una empresa de desarrollo de
software, y que los alumnos a la par
construyan un software más o menos grande
en equipos de 5 personas para un cliente
real si se puede, y con todo lo que eso
significa; el semestre pasado tuvimos dos
sistemas bastante exitosos, esperemos
pronto ponerlos a disposición en la página
del posgrado para que los use todo el mundo
que le pueda interesar, entonces estas son
las materias que imparto tradicionalmente.
P
P
l
l
a
a
t
t
i
i
c
c
a
a
n
n
d
d
o
o
c
c
o
o
n
n
.
.
.
.
.
.
15
M. en C. Guadalupe Ibargüengoitia González.
•
•
Coordinadora de la Licenciatura en Ciencias de la Computación
(UNAM) en el año 2000.
•
•
32 años de experiencia profesional y académica
•
•
Actualmente, profesora titular A de tiempo completo en la
Facultad de Ciencias (Licenciatura en Ciencias de la Computación
y en el Posgrado de Computación) en la UNAM.
16
E.D. ¿Podría hablarnos un poco más sobre
sus áreas de interés?
M.G.: Bueno, por un lado lo que platicaba
hace un ratito, (pero frente a la cámara no),
es de que estamos lanzando
una especialización en
“Diseño y aplicación de
Multimedia Interactiva”, yo
soy la coordinadora de esta
especialización, en esta
especialización estoy
trabajando en conjunto con
grupos de trabajo muy exitosos dentro de la
UNAM en desarrollo de aplicaciones
multimedia; ahora en abril cumplimos tres
años de estar trabajando en conjunto y lo
que hemos hecho es que a partir de la
práctica de éstos grupos exitosos como
UNIVERSUM, DGSCA , SECADET, quienes
ya tienen muchos años de experiencia en el
desarrollo de software multimedia, definimos
el proceso; ellos lo hacían pero no sabían
qué hacían, entonces definimos a ver cuáles
son las fases, cuáles son los roles, cuáles
son las actividades; lo planteamos, lo
modelamos a través de UML, todo eso con
distintos diagramas y una vez que lo tuvimos
más o menos listo, iniciamos la
especialización para enseñar a los alumnos,
cómo se construye software multimedia e
interactivo a partir de esas buenas prácticas;
eso dimos el semestre pasado con esa
materia y hubo mucha retroalimentación de
los alumnos, vamos a volver a regresar a
refinar todo esto; esa es una parte
interesante de mis actividades, que pues lo
que falta es acabar de pulir los documentos;
ya entregamos una cierta versión de los
documentos para oficializar esta
especialización, es la burocracia que se tiene
que llevar, quién sabe que cuerpos
académicos, áreas, comités de áreas y cosas
por el estilo; esperemos que para agosto ya
la podamos sacar oficialmente, entonces ésa
es una de mis área de interés. Otro son los
cursos y la enseñanza de la ingeniería de
software a nivel licenciatura, a nivel maestría,
también del famoso modelo MOPROSOFT,
que es la norma mexicana para el desarrollo
de software, el proyecto que tenemos es que
queremos desarrollar software de
capacitación a las empresas como si fuera
un aula de educación abierta y a distancia de
MOPROSOFT, entonces tenemos ahora todo
el reto de conseguir pedagogos, conseguir
diseñadores, etc., para construir todo ese
material que pueda ser más útil a las
empresa que quieren aplicar MOPROSOFT,
eso ya tenemos varios años haciéndolo con
los alumnos de maestría pero es un cuento
de nunca acabar,…¡nunca dejan el software
suficientemente bien!, entonces hemos
hecho muchas herramientas para
apoyar MOPROSOFT, pero se
quedan ahí, en los discos
guardados nada más; entonces
queremos ahora iniciar un
proyecto más serio y más fuerte
sobre eso; y a la vez de este
trabajo, otra cosa que ya llevamos un año
trabajando en lo que participa el maestro
Carlos Pineda también, es la red universitaria
de Ingeniería de Software y bases de datos,
entonces a través de la conjunción de toda la
experiencia que hay en la UNAM de
desarrollo de software, poder tener
mecanismos de comunicación y cooperación
entre todos los que desarrollamos software
en la UNAM, eso está muy ambicioso pero
llevamos un año trabajando a través de un
seminario, primero fue un seminario de
conocernos, luego fue otro seminario de
hablar de temas más avanzados, y para este
año un poco la idea sería empezar a buscar
cursos que cada una de las dependencias,
en lo que es más fuerte pudiere impartir de
forma abierta o de alguna manera hacia el
resto, entonces eso se parece mucho a lo
que acabo de platicar de la parte académica
de educación de alumnos pero ahora de
capacitación a los desarrolladores de
software de la UNAM porque hay
muchísimos grupos de desarrollo de software
en la UNAM; bueno, por ejemplo podríamos
hablar de la DGAE que hace todos los
sistemas de educación, de control escolar;
entonces toda su experiencia que pueda
circular entre todos los demás y además
introducir los conceptos por ejemplo de
MOPROSOFT. Serían como mis proyectos
más importantes de este año, como sueño
guajiro que todavía quien sabe si lo
arranquemos, pero sería un poco la tirada de
si pudiéramos crear una especialización
semejante a la que estamos haciendo de
multimedia pero de ingeniería de software en
donde podamos
dar un título de
posgrado, igual
recuperando la
experiencia de
todos, armando
como un plan de
MOPROSOFT es la
norma mexicana
para el desarrollo
de software...
hay muchísimos
grupos de desarrollo
de software en la
UNAM...
1 7
estudios,
entonces a la
mejor primero
tenemos que
empezar con
cursitos sueltos
pero después
conjuntarlos armando una especialización,
no necesariamente para este año pero tal
vez para el año que entra, porque la
especialización multimedia pues nos llevó
dos años definirla, entonces ésta que nos
lleve uno porque ya llevamos un poquito de
experiencia y conjuntar todo el trabajo de la
red pues podría ser muy interesante; ese es
otro proyecto para este año, para ir
recuperando lo que ya tenemos.
E.D. ¿Qué percepción tiene, en un panorama
general, sobre la informática en México?
M.G.: Bueno, pues yo creo que es toda un
área de oportunidades muy importante
porque el desarrollo de software, bueno... en
el sexenio pasado si nada funcionó en este
país, lo único que si funcionó fue el impulso
al desarrollo de software, la Secretaría de
Economía tenía programas muy importantes
para el desarrollo de software, me consta por
la participación en lo que se llamaba la
Asociación Mexicana de Calidad en
Ingeniería de Software, quien impulsó al
desarrollo de software en México, fue muy
importante; este sexenio todavía no ha dado
mucho de que hablar, ha echado cosas para
atrás, pero creo que impulsó la Secretaría de
Economía el desarrollo de software y es un
área de oportunidad muy importante para
nosotros, y lo más importante para que esa
industria funcione, es que debemos de tener
gente preparada a todos los niveles, desde
egresados de Licenciatura en Informática,
egresados en Ingeniería en Computación,
egresados en Ciencias de la Computación,
egresados de maestría, etc. O sea hay que
conjuntar todas las actividades de todos los
que tienen conocimientos en desarrollo de
software, yo creo que es un área muy
importante de oportunidad en nuestro país.
E.D. Relacionado con
esta parte, ¿Cómo
percibe la formación
que están teniendo
los alumnos de
informática, dentro
de la UNAM?
M.G.: ...con mi experiencia en estos
proyectos que acabo de mencionar; bueno
yo trabajo aquí en la Facultad de Ciencias y
entonces aquí uno a veces tiene la visión
muy miope de que todos son científicos de
computación, pero no es cierto, porque en la
red una gran cantidad de la gente que
desarrolla software en la UNAM es egresado
de carreras de Informática, tanto de
Cuautitlán como de aquí enfrente de la
Facultad de Contaduría, entonces eso quiere
decir que algo están haciendo bien. Dentro
de nuestros egresados del posgrado,
últimamente se han puesto medios pesados
y entonces no es muy fácil que entren
egresados de carreras de Informática porque
luego se pone: “demuestre teoremas” en el
examen de admisión; pero bueno, algún día
me gustaría poder sacar algo menos
riguroso, yo tengo tres egresados estrellas
que hicieron unas tesis maravillosas y que
son licenciados en Informática de aquí
enfrente, yo creo que todas las carreras
tienen su campo muy valioso, y bueno, si
ahorita en el posgrado están muy puristas,
de que tienen que saber demostrar
teoremas, pues ellos se la pierden, porque
en ese sentido que ésta especialización que
quisiéramos tener en ingeniería de software
sería un campo más propicio para recibir a
todos los de todas las carreras de
Computación y de Informática que quieran
especializarse en Ingeniería de Software,
que ahorita porque los ponen a demostrar
teoremas que a los de Ingeniería de Software
no les sirven para nada, no los podemos
aprovechar.
E.D. ¿Qué tánta demanda cree que tienen
los profesionistas de esta carrera?
M.G.: Mucha, mucha, yo creo que…, alguien
por ahí muy pesimista dice: “no ya no se
necesitan”, ¡¿Cómo que no se necesitan?!,
se necesitan para todo, yo creo que para
todo, para todo, para todo, pues es que en
este momento nuestra vida está regida por
softwares, y ¿Quién los hace?, pues
egresados de las carreras de Informática,
Ingeniería en Computación y
de Ciencias de la
Computación; demanda hay
muchísima, me gustaría
ahorita mencionar, ahora sí
que un comercial, hay una
revista, no se si la conozcan,
hay que conjuntar
todas las actividades
de todos los que tienen
conocimientos en
desarrollo de software...
...en este momento nuestra vida
está regida por softwares, y ¿Quién
los hace?, pues egresados de las
carreras de Informática, Ingeniería
en Computación y de Ciencias de
la Computación.
18
se llama “Software Gurú”, que es una revista
mexicana de desarrollo de software, que es la
computación en la práctica, y entonces en
esta revista se puede ver mucho la relación
que existe en la industria de software en
México, este número en particular habla
sobre las personas y los números; viene un
artículo muy interesante, son muchas
gráficas y muchas estadísticas; cuánto gana
toda la gente que se dedica al desarrollo de
software en México, lo sacaron a través de
encuestas que estuvieron realizando a la
gente de la industria de software que conoce
la revista, esta revista además hace cada año
un evento muy grande en octubre, y hay
cosas interesantísimas porque vienen
estudios por genero, por tipo de aplicaciones,
etc., etc. Y a mí lo que me queda claro es que
hay mucha demanda de desarrollo de
software, bastante bien pagado y depende de
lo que uno quiera hacer, pero el campo de
tipo de cosas que uno puede hacer para el
desarrollo de software es muy amplio, es muy
interesante echarle un ojo a esa revista
porque pudieran sacar cosas interesantes,
está electrónica también, la suscripción…
bueno antes era gratis ahora no se, pero la
verdad que vale la pena para un
profesionista, por lo
menos revisar lo que
está publicándose
aquí; y sí es cierto
que hay mucha
demanda.
E.D. Por último,
¿Puede darnos una recomendación a los
estudiantes de la carrera de Informática, o
algunas recomendaciones para todas estas
carreras?
M.G.: Pues, parte de lo que platicábamos
antes de esta entrevista, profesionistas de
Informática y profesionistas en el desarrollo
de software hay muchos, pero cada quien
tiene que buscar cuál es su plus, o sea yo
además de saber de hacer lo que todo
mundo sabe hacer yo qué cosa se hacer
más, soy un super experto en los paquetes,
soy un super experto porque entiendo muy
bien las funcionalidades del diseño de bases
de datos, entiendo muy bien todos los
conceptos fundamentales, soy un super
experto en otro idioma, tengo que buscar y
experimentar y encontrar mi propio valor, o
sea si yo quiero ser una persona exitosa,
tengo que verdaderamente echarle los kilos,
porque luego termino la carrera ¿y..?, ¿Qué
se hacer?, ¿En qué me van a contratar?,
¿no?, pues tienes que ponerte las pilas
desde ahorita, desde quinto semestre que ya
tienes una idea de qué se trata tu carrera, a
ver yo qué quiero, en qué quiero ser muy
bueno y echarle los kilos para deveras
destacar en eso, y a la hora de que me vaya
a ofertar para conseguir trabajo: es que yo
soy buenísimo en…, yo le he echado muchos
kilos a…, y entonces de esa manera, si en
una empresa tienen varias solicitudes van a
decir ¡ah!, pero éste enfoca mejor que nadie
los conocimientos; todo lo que yo haga y todo
lo que aprenda en el camino, hacer una
revista, hacer entrevistas, todas esas cosas,
sacarle jugo, preparar muy bien las preguntas
como lo hicieron ustedes, todo eso es un plus
que a la hora de intervenir en un trabajo me
va a dar satisfacción a mí y además le va a
dar gusto a la gente al contratarme, ¿no?;
pero además otra cosa, otro consejo
interesante, si yo hago verdaderamente lo
que me gusta, si le echo los kilos, yo siempre
digo, si yo juego muy bien, -porque estoy
haciendo lo que me gusta, estoy jugando,
¿no?, como los niños-, y si yo hago las cosas
con mucho gusto, el dinero llega solito, o sea,
lo importante es que me apasione por lo
que hago y no…, es que yo quiero ganar
mucho dinero; ¡ah!, ¿te gusta lo que
haces?, ¿te apasiona lo que haces?.
Primero apasiónate por lo que haces y el
dinero solito cae, no buscar trabajo o
buscarlo por el dinero, sino porque yo
me sienta muy bien como persona y
porque me apasiona lo que hago, yo creo que
ese es un consejo interesante para los
informáticos y para todos en general, pero si
en particular para los informáticos, hay que
apasionarnos por todo lo que hacemos.
E.D. Bueno, agradecemos a la Maestra su
colaboración y esperemos que sigamos
estableciendo más vínculos, hay alumnos
muy capacitados en la UNAM, muy buenos y
que necesitamos que nos ayuden y ayudarlos
para que ellos también se desarrollen.
M.G.: Entusiasmarlos para que se apasionen.
E.D.: Que se apasionen, y que ya se den
cuenta de qué es realmente lo que quieren
hacer. Y bueno nuevamente agradecerle su
colaboración.
cada quien tiene que buscar su plus...
n
n
o
o
b
b
u
u
s
s
c
c
a
a
r
r
t
t
r
r
a
a
b
b
a
a
j
j
o
o
o
o
b
b
u
u
s
s
c
c
a
a
r
r
l
l
o
o
p
p
o
o
r
r
e
e
l
l
d
d
i
i
n
n
e
e
r
r
o
o
.
.
.
.
.
.
p
p
a
a
r
r
a
a
l
l
o
o
s
s
i
i
n
n
f
f
o
o
r
r
m
m
á
á
t
t
i
i
c
c
o
o
s
s
,
,
h
h
a
a
y
y
q
q
u
u
e
e
a
a
p
p
a
a
s
s
i
i
o
o
n
n
a
a
r
r
n
n
o
o
s
s
p
p
o
o
r
r
t
t
o
o
d
d
o
o
l
l
o
o
q
q
u
u
e
e
h
h
a
a
c
c
e
e
m
m
o
o
s
s
.
.
1 9
C
uando se trata de escribir sobre
Sistemas Operativos surgen cientos
de ideas para desarrollarse, sin embargo al
escribirlas se presenta el problema de que
cada punto podría abarcar varias decenas
de páginas y aún quedaría material para
profundizar más, por otro lado no siempre
es entendida la importancia del estudio de
este tema por parte de los
estudiantes de las
carreras de Informática y
Computación, ya que los
sistemas actuales
presentan interfaces
gráficas amables que no
dejan ver lo complejo del
trabajo del Sistema
Operativo, debido a
estas circunstancias los
propósitos de este escrito
son: definir qué es un
Sistema Operativo, describir en forma
general su funcionamiento y motivar al
lector a investigar en profundidad los
aspectos que considere relevantes para su
mayor comprensión y mejor desempeño
profesional.
Basta con hacernos una pregunta para
comprender la importancia de los Sistemas
Operativos, ¿Qué puede hacer un equipo
de cómputo sin Sistema Operativo?.
U
U
n
n
p
p
o
o
c
c
o
o
d
d
e
e
h
h
i
i
s
s
t
t
o
o
r
r
i
i
a
a
Recordemos que las primeras
computadoras no tenían sistemas
operativos, las computadoras
sólo utilizaban
procesamiento por lotes
para funcionar.
Durante los 60's, fueron
concebidos la mayoría de
los conceptos teóricos,
conduciendo al desarrollo
de los Sistemas Operativos.
El desarrollo de la
computadora IBM
System/360 produjo una
familia de mainframes disponibles en una
amplia variedad de capacidades y precios,
para los cuales se desarrolló un solo
Sistema Operativo llamado OS/360.
El desarrollo de un sólo sistema operativo
para una línea completa de computadoras
fue crucial para el éxito del System/360, y
el inicio del auge de los Sistemas
SSiisstteemmaass OOppeerraattiivvooss
L.C. Carlos Pineda Muñóz
•
•
Jefe del Centro de Cómputo en la FESC durante el periodo 1996-1998.
•
•
Coordinador de la Licenciatura en Informática en la FESC durante el
periodo 2000-2005.
•
•
23 años como profesor en la UNAM.
•
•
Gerente corporativo de sistemas.
•
•
Asesor externo de pequeñas empresas.
•
•
Participa en proyectos de computación distribuida y programación en
paralelo.
•
•
Áreas de interés: Redes, lenguajes de programación, Sistemas
Operativos, Ingeniería de Software, entre otros.
•
•
Distinguido por su responsabilidad, honestidad, interés para
involucrarse en cómputo en general y facilidad de autoaprendizaje.
20
Operativos, por ejemplo Multics que se
desarrolló inicialmente para el mainframe
GE-645, un sistema de 36 bits; después fue
soportado por la serie de máquinas
Honeywell 6180, los laboratorios Bell
dejaron el proyecto en 1969; algunas de las
personas que habían trabajado en su
desarrollo se dedicaron a crear el sistema
Unix.
En 1969 se desarrolló un proyecto llamado
UNIX. Entre los investigadores destacaban
Ken Thompson y Dennis Ritchie. En
principio, este sistema operativo recibió el
nombre de UNICS, aunque un año después
pasa a llamarse UNIX, como se conoce hoy
en día. El código de UNIX estaba
inicialmente escrito en lenguaje
ensamblador, pero en 1973, Dennis Ritchie
llevó a cabo un proyecto para reescribir el
código de UNIX en lenguaje C. UNIX se
convirtió así en el primer sistema operativo
escrito en lenguaje de alto nivel. Con este
nuevo enfoque fue posible portar al sistema
operativo a otras máquinas sin muchos
cambios, solamente efectuando una nueva
compilación en la máquina de destino.
Gracias a esto la popularidad de UNIX
creció y permitió asentar la "filosofía UNIX".
Por otro lado en 1975 Gary Kildall inventó el
primer DOS (Disk Operating System), al que
llamó CP/M (Control Program for
Microprocessors), que podría controlar
periféricos como un monitor o una
disquetera. Sus amigos aseguran que lo
escribió él sólo, a finales de los setenta,
CP/M estaba presente en más de medio
millón de máquinas, era el sistema
operativo que hacía funcionar la mayor
parte de computadoras de la época, con la
excepción de los Apple, que no utilizaban
chips de Intel y tenían su propio sistema
operativo. Todos los demás, incluyendo
Seros, Kaypro, Kentucky Fried Computer,
Commodore, Morrow funcionaban con
CP/M.
También no debemos olvidar a los Steve
Jobs y Wozniak fundadores de Apple
Computer, que introdujeron el Mac OS
como su sistema operativo el cuál es
considerado el primer sistema gráfico para
computadora.
El profesor Andrew S. Tanenbaum en 1987
creó el sistema operativo Minix. La última
versión oficial de Minix es la 3.1.2,
publicada el 8 de Mayo de 2006. Fue
creado para enseñar a sus alumnos el
diseño de sistemas operativos, las razones
de su desarrollo fueron: porque Unix estaba
bajo restricciones de licencia de AT&T, era
demasiado complicado y corría sobre
máquinas complejas. Tiene un tamaño muy
reducido y se basa en el paradigma del
micronúcleo. Debido al enfoque puramente
educacional de Minix, Tanenbaum no
permitía que este fuera modificado
demasiado, ya que esto complicaba el
sistema y no permitía que sus estudiantes lo
entendieran en un semestre.
En 1985 la empresa Microsoft publicó la
primera versión de Windows, una interfaz
gráfica de usuario (GUI) para su propio
sistema operativo (MS-DOS) que había sido
incluido en el IBM PC y compatibles desde
1981. Es muy similar a la de Apple, usando
la interfaz gráfica, fue creada imitando el
MacOS de Apple, aunque la versión
realmente popular de Windows fue la
versión 3.0, publicada en 1990. Ésta se
benefició de las mejoradas capacidades
gráficas para PC de esa época, y también
del microprocesador 80386, que permitía
mejoras en las capacidades multitarea de
las aplicaciones Windows. Esto permitiría
ejecutar en modo multitarea viejas
aplicaciones basadas en MS-DOS.
Windows 3 convirtió al IBM PC en un serio
competidor para el Apple Macintosh.
Sin tratar de omitir a alguien en específico,
en la historia reciente está Linus Torvalds
como el creador en 1991 del kernel del
sistema operativo más moderno llamado
LINUX, que está ligado al movimiento GNU
de software libre iniciado en 1983 por
Richard Stallman, por lo que el sistema
debe ser conocido como GNU/Linux.
Quizá se pregunten por qué no mencionar a
Bill Gates, ésto se debe a la oscuridad que
ha rodeado su aparición como el creador de
MS-DOS que se deriva de Qdos
considerado una copia de CP/M, y a su
largo historial de dudosos negocios y
aportaciones al mundo de la computación y
la Informática, sin olvidar la sanción que le
aplicó la Unión Europea por abuso de
posición dominante, (prácticas monopólicas)
a la empresa Microsoft .
2 1
D
D
e
e
f
f
i
i
n
n
i
i
c
c
i
i
ó
ó
n
n
Existen varias definiciones de sistema
operativo, en este caso no se dará alguna
tomada de los textos, sino que iremos
abordando algunas bases conceptuales de
un sistema de cómputo y luego
propondremos una definición basándonos
en éstos.
En primer lugar ubiquemos al Sistema
Operativo (S.O.) en un sistema de cómputo,
en la figura 1 mostramos en forma de capas
la estructura de un sistema de cómputo
ubicando al S.O. en la capa inmediata
superior al Hardware, por debajo de la capa
de aplicaciones y accesible al programador.
También podríamos observar que es el
resultado del trabajo de un diseñador de
sistemas, al no ser hardware entonces la
ubicamos como una capa de software.
Un esquema de capas es muy útil, ya que
de manera intuitiva podemos imaginar que
el orden de éstas es jerárquico, es decir
están en el orden ascendente de nivel como
funcionan en forma real y que la capa
inferior para interactuar con una superior
debe pasar al siguiente nivel, igualmente en
sentido inverso.
Ahora bien, abordándolo desde el punto de
vista académico, en la figura 2 observamos
que el S.O. tiene funciones de
administración, y nuevamente cumple la
tarea de intermediario entre los
componentes de hardware y la interfaz de
usuario del sistema de cómputo.
En este caso la comunicación es en todos
sentidos para que en conjunto den apoyo a
la interfaz de usuario, por lo que el S.O. se
divide en administradores especializados
que organizan el funcionamiento de los
diferentes elementos del sistema de
cómputo, desde luego que su
especialización está estrechamente
relacionada con el tipo de servicios que
prestará el sistema de cómputo, por ejemplo
si el sistema será utilizado como servidor de
almacenamiento (repositorio), debemos
pensar en que el administrador de archivos
principalmente será el que determine el
desempeño del sistema, por lo que
buscaremos al más eficiente para obtener el
mejor resultado.
En esta construcción, para lograr el mejor
desempeño (performance) del sistema,
todos los administradores deben
proporcionar un rendimiento indispensable
mínimo para no afectar el desempeño
global de sistema de cómputo, y
refiriéndonos a la figura 1, no olvidar que las
demás capas (hardware, utilerías, etc.)
también influyen en el desempeño global;
para detallarlo se requiere abordar otros
temas que no se incluyen en el presente
documento.
Cada uno de estos administradores cumple
funciones muy específicas, a continuación
describiremos las principales de cada uno:
A
A
d
d
m
m
i
i
n
n
i
i
s
s
t
t
r
r
a
a
d
d
o
o
r
r
d
d
e
e
m
m
e
e
m
m
o
o
r
r
i
i
a
a
:
:
El administrador de memoria aplica distintos
métodos (algoritmos) y operaciones que se
Figuara 1. Esquema de capas de un S.O.
Figura 2. Funciones de un S.O.
22
encargan de obtener la máxima utilidad de
la memoria, organizando los procesos y
programas que se ejecutan de manera tal
que se aproveche al máximo el espacio
disponible.
Para lograrlo, la tarea principal que realiza
es la de trasladar la información que deberá
ser ejecutada o utilizada por el procesador,
a la memoria principal, debido a que los
datos o programas que utilizará el
procesador central no pueden ser utilizados
si están en memoria secundaria. Los
métodos que existen para la carga de
programas en la memoria son:
•
•
Partición fija, que es la división de la
memoria libre en varias partes (de igual o
distinto tamaño).
•
•
Partición dinámica, que son las
particiones de la memoria en tamaños que
pueden ser variables, según la cantidad de
memoria que necesita cada proceso.
Las principales operaciones que desarrolla
la administración de memoria son:
•
•
La reubicación, que consiste en trasladar
procesos activos dentro y fuera de la
memoria principal para maximizar la
utilización del procesador,
•
•
La protección, mecanismos que protegen
los procesos que se ejecutan de
interferencias de otros procesos;
•
•
Uso compartido de códigos y datos, con lo
que el mecanismo de protección permite
que ciertos procesos de un mismo programa
que comparten una tarea tengan memoria
en común.
En algún momento la memoria principal
(RAM) no es suficiente, el administrador
debe utilizar algunos trucos para superar
esta limitación, en ese punto aparece el
concepto de memoria virtual; la memoria
virtual es una técnica que permite la
ejecución de procesos parcialmente
cargados en memoria principal; los
programas pueden ser más grandes que la
memoria física, se utiliza el disco como
almacén secundario de procesos, libera al
programador de la preocupación de que sus
programas quepan en memoria; la idea es
mantener en memoria principal sólo los
fragmentos de cada proceso que se estén
utilizando.
Para evitar conflictos y equivocaciones el
administrador de memoria del S.O. decide
qué partes cargar, cuándo cargarlas y
dónde ubicarlas, la técnica más utilizada es
la paginación por demanda que es una
paginación con intercambio (swap), en lugar
de intercambiar un proceso entero solo se
intercambian algunas páginas, es decir
cuando se va a cargan un proceso, el
administrador de memoria intenta adivinar
las páginas que se van a utilizar y
solamente trae esas páginas reduciendo el
tiempo de intercambio y la cantidad de
memoria física requerida.
A
A
d
d
m
m
i
i
n
n
i
i
s
s
t
t
r
r
a
a
d
d
o
o
r
r
d
d
e
e
l
l
P
P
r
r
o
o
c
c
e
e
s
s
a
a
d
d
o
o
r
r
(
(
C
C
P
P
U
U
)
)
El núcleo del Sistema Operativo (también se
le conoce como kernel) controla todas las
operaciones que implican procesos, y
representa solo una pequeña porción del
código de todo el Sistema Operativo, pero
es de amplio uso. En este punto primero
debemos especificar que lo más importante
para este administrador son los procesos,
aunque hay varias definiciones de proceso
emplearemos la más utilizada que nos
define a un proceso como un programa que
se está ejecutando, ya que es el más
comprensible, y para comprenderlos mejor
debemos conocer los modelos de proceso
que hay, cómo se manejan las jerarquías y
los estados que pueden presentar.
Modelo de procesos:
•
•
Todo el software ejecutable, inclusive el
Sistema Operativo, se organiza en varios
procesos.
•
•
Un proceso incluye al programa en
ejecución y a los valores activos del
contador, registros y variables del mismo,
se identifica con un número único y un
nombre.
•
•
Conceptualmente cada proceso tiene su
propia CPU virtual.
•
•
Si la CPU se alterna entre los procesos, la
velocidad a la que se ejecuta un proceso
no será uniforme, por lo que es necesario
aclarar que los procesos no deben
programarse con hipótesis implícitas
2 3
acerca del tiempo, y que normalmente la
mayoría de los procesos no son
afectados por la multiprogramación
subyacente de la CPU o las velocidades
relativas de procesos distintos.
•
•
Un proceso es una actividad de un cierto
tipo que tiene un programa, entrada,
salida y estado.
•
•
Un sólo procesador puede ser compartido
entre varios procesos con cierto
“algoritmo de planificación”, el cual
determina cuándo detener el trabajo en
un proceso y dar servicio a otro distinto.
Jerarquía de los procesos:
Los Sistemas Operativos deben tener una
forma de crear y destruir procesos cuando
se requiera durante la operación, teniendo
además presente que los procesos pueden
generar procesos hijos mediante llamadas
al Sistema Operativo, pudiendo darse
ejecución en paralelo y de acuerdo al
modelo empleado se fijan prioridades para
su ejecución o asignación de tiempo de
proceso.
Estado de los procesos:
Cada proceso es una entidad independiente
pero frecuentemente debe interactuar con
otros procesos, el administrador de
procesos cuenta con un ayudante que
llamaremos despachador que es el que
realiza el cambio o transición de estado de
los procesos, así mismo el despachador
puede bloquear su ejecución si desde el
punto de vista lógico no puede continuar
porque espera datos que aún no están
disponibles, o el S.O. asignó la CPU a otro
proceso.
Los estados que puede tener un proceso
son:
•
•
En ejecución: utiliza la CPU en el instante
dado.
•
•
Listo: ejecutable, se detiene en forma
temporal para que se ejecute otro
proceso.
•
•
Bloqueado: no se puede ejecutar debido a
la ocurrencia de algún evento externo.
Las transiciones se realizan entre estos
estados, sin embargo algunos S.O.
consideran dos posibilidades de estados,
zombie y huérfanos; los primeros se dan
cuando el proceso agotó sus instrucciones y
no realiza ninguna instrucción, entonces
mientras el despachador no lo borra de la
lista de procesos, su estado es de zombie;
en el segundo caso se presenta que un
proceso ya terminó, y su padre por estar
ocupado no envía al despachador la señal
de fin, por lo que momentáneamente
aparece como huérfano hasta que el padre
envía la señal de borrado.
No siempre este administrador está
tranquilo y surge una interrupción, que es
un evento que altera la secuencia en que el
procesador ejecuta las instrucciones; es un
hecho generado por el hardware. Cuando
ocurre una interrupción, el Sistema
Operativo:
•
•
Obtiene el control.
•
•Guarda el estado del proceso
interrumpido, generalmente en su bloque
de control de procesos.
•
•
Analiza la interrupción.
•
•
Transfiere el control a la rutina apropiada
para el manejo de la interrupción.
Una interrupción puede ser iniciada por un
proceso en estado de ejecución o por un
evento que puede o no estar relacionado
con un proceso en ejecución, las
interrupciones se pueden clasificar por tipos
en:
•
•
SVC (llamada al supervisor)
•
•
I/O (Entrada / Salida)
•
•
Externas
•
•
De reinicio
•
• De verificación de programa (un intento
de dividir entre cero, un intento de un
proceso de usuario de ejecutar una
instrucción privilegiada, un intento de
ejecutar un código de operación inválido).
•
• De verificación de máquina (mal
funcionamiento del hardware).
Como se ha descrito, las tareas del
administrador del procesador son varias y
de gran complejidad, aunado a lo anterior,
debemos decir que este administrador
además del despachador se apoya en el
planificador, que se encarga de
proporcionarle al S.O. los criterios respecto
24
de un buen algoritmo de planificación, que
son: son la equidad, la eficacia, el tiempo de
respuesta, el tiempo de regreso y el
rendimiento.
Como pueden ver, son muchas las tareas
que realiza éste administrador y en cada
una se podría ahondar, sin embargo se
queda para análisis e investigación posterior.
Administrador de dispositivos:
Al utilizar un sistema de cómputo nos
encontramos con la necesidad de controlar
distintos dispositivos de entrada/salida
(E/S), el gran problema de todos estos
dispositivos es que son muy lentos, por
ejemplo la CPU procesa instrucciones a
velocidad de varios GHz, la memoria RAM
tienen tiempo de acceso en nanosegundos
y los dispositivos de E/S más rápidos tienen
velocidad de accesos de milisegundos.
Ésto no sería problema en los sistemas
antiguos, sin embargo los sistemas actuales
son cada vez más interactivos, lo que
requiere mayor uso de dispositivos de E/S y
ésto ocasiona cuellos de botella en los
sistemas de cómputo.
Para administrar estos dispositivos, los
separamos en tres grandes grupos:
•
• Dispositivos de interfaz de usuario; por
ejemplo teclados, ratones, impresoras,
monitores, escáner, lectores de huella
digital e instrumentos MIDI.
•
• Dispositivos de almacenamiento; aquí se
incluyen todos los dispositivos que
proporcionen almacenamiento no volátil y
según su capacidad e inmediatez para
acceder a estos datos se clasifican en
almacenamiento secundario (Memoria
Flash, Discos fijos, CD-ROM, DVD,
disquetes) o terciario (cinta magnética,
unidades ópticas).
•
• Dispositivos de comunicaciones; permiten
conectar a un sistema de cómputo con
otro de manera directa o por medio de
redes, por ejemplo los módem y las
tarjetas de red.
El administrador de dispositivos, debe
controlar el funcionamiento de éstos para
alcanzar los siguientes objetivos:
•
•
Facilitar el manejo de los dispositivos
mediante interfaces sencillas y fáciles de
utilizar.
•
•
Optimizar las tareas de E/S
incrementando las prestaciones donde
sea necesario, por ejemplo utilizando el
acceso directo a memoria (DMA), ya que
muchos dispositivos modernos tienen su
propia memoria o bien empleando cachés
de disco o utilizando solapamiento de
búsquedas y transferencias, lo que tiene
que ver con procesamiento paralelo.
•
•
Proporcionar dispositivos virtuales que se
puedan conectar a cualquier dispositivo
físico sin remodelar el sistema completo.
•
•
Permitir la conexión de nuevos
dispositivos resolviendo de forma
automática su instalación por medio del
concepto de arquitectura abierta y
distribuida, conectar y usar (plug & play).
Un punto a considerar para este
administrador es el sistema tolerante a
fallos y la fiabilidad, ya que esto contribuye
a incrementar la confianza en el sistema de
cómputo frente a fallos y errores
inesperados.
A
A
d
d
m
m
i
i
n
n
i
i
s
s
t
t
r
r
a
a
d
d
o
o
r
r
d
d
e
e
a
a
r
r
c
c
h
h
i
i
v
v
o
o
s
s
Tal vez lo deberíamos llamar administrador
de archivos y directorios, ya que la forma
más utilizada para organizar los archivos es
en directorios (también son conocidas como
carpetas), es el encargado de crear,
eliminar, modificar y controlar el acceso a
los archivos, para entender el
funcionamiento de este administrador en
algún S.O. debemos conocer:
¿Cuál es la organización lógica de los
archivos?
¿Cómo están almacenados físicamente?
¿Cómo se tiene acceso a éstos?
¿Quién tiene permisos para los accesos?
A manera de recordatorio diremos que
existen principalmente dos tipos de
archivos, los ASCII y los binarios, donde los
ASCII son lineas de texto que pueden ser
editados e interpretados por el usuario, y los
binarios que almacenan generalmente
programas ejecutables, objetos y datos no
textuales, es decir no los puede interpretar
el usuario.
2 5
Desde el punto de vista del S.O., un archivo
se caracteriza por una serie de atributos y
aunque estos varían dependiendo del S.O.
generalmente coinciden en los siguientes:
•
•
Nombre
•
•
Identificador único
•
•
Tipo de archivo
•
•
Mapa del archivo (apuntadores a los
dispositivos y a los bloques donde se
almacenan)
•
•
Protección (control de acceso)
•
•
Tamaño en bytes
•
•
Información temporal (feches de acceso,
modificación, etc.)
•
•
Información de control (archivo de
sistema, oculto, normal, directorio, etc.)
Un directorio es un objeto que relaciona de
forma unívoca el nombre de usuario de un
archivo y el descriptor interno del mismo
usado por el S.O. y se representa por una
estructura de datos.
Las tareas principales del administrador de
archivos son:
•
•
Llevar el control de donde se guarda
cada archivo o directorio.
•
•
Utilizar políticas para el almacenamiento
de los archivos asegurando el uso
eficiente del espacio, así como un acceso
seguro y rápido.
•
•
Asignar cada archivo al usuario que tiene
el permiso de acceso cuando éste lo
haga, y llevar el registro de su utilización.
•
•
Quitar la asignación de los archivos a los
usuarios cuando éstos lo dejen de utilizar,
devolverlo al almacenamiento y ponerlo
en disponibilidad para que otros usuarios
permitidos que lo estén esperando lo
utilicen.
Desde el punto de vista del S.O. podemos
ver al administrador de archivos como un
servidor de archivos, que además de
proporcionar al usuario los servicios de
manejo de archivos debe definir los
algoritmos y estructuras de datos a utilizar
para que la visión del usuario sea
correspondiente con la estructura de
almacenamiento físico sin perder velocidad
y aleatoriedad, elementos muy importantes
en el desempeño general del sistema.
El servidor de archivos está compuesto por
una serie de capas de software, en donde
cada capa usa las características de los
niveles inferiores para crear el siguiente
nivel más abstracto hasta llegar a los
servicios que se proporcionan a los usuarios.
Ejemplos de sistemas de archivos de disco:
•
•
ASFS (Amiga Smart File System)
•
•
ext2
•
•
ext3
•
•
ext4
•
•
FAT (File Allocation Table, usado en DOS
y Windows hasta Windows ME)
•
•
FFS (Berkeley Fast File System)
•
•
HFS (para Mac OS)
•
•
ISO 9660 (de solo lectura, para CD-ROM)
•
•
JFS (Journaling File System)
•
•
NTFS (New Technology File System,
usado en Windows NT y derivados, como
XP o Vista)
•
•
ReiserFS
•
•
WinFS (Windows File System, se
planeaba su uso en Windows Vista)
•
•
ZFS (sistema de archivos de Sun
Microsystems)
A
A
d
d
m
m
i
i
n
n
i
i
s
s
t
t
r
r
a
a
d
d
o
o
r
r
d
d
e
e
r
r
e
e
d
d
Hasta aquí hemos descrito las funciones de
los administradores de S.O. sin considerar
la posibilidad de interconexión, compartición
de recursos o transferencia de información
entre los sistemas de cómputo, sin embargo
en estos momentos es difícil no pensar en
estas posibilidades, por lo que agregamos
al S.O. un administrador más que se
encargará de permitir y controlar estas
tareas, y consideramos llamarlo ahora
Sistema Operativo de RED, como lo
mencionamos en un inicio los temas se
relacionan estrechamente y es muy difícil
abarcarlos con mayor profundidad dado lo
extenso de los mismos. Nuevamente la
invitación a profundizar en todos los puntos
para lograr un mejor entendimiento de la
función de un S.O.
Actualmente las redes más utilizadas en el
mundo están basadas en el modelo de
arquitectura OSI (Open Systems
Interconnection), que define una forma de
funcionar de las comunicaciones en un
modelo de 7 capas, al ser un estándar este
modelo, los desarrolladores logran una
arquitectura común aunque sus redes sean
distintas, el caso más importante y conocido
26
es Internet; no es el tema del presente
documento detallar el desarrollo de las
redes de computadoras sino como los
Sistemas Operativos adoptan estas
tecnologías para explotar de mejor manera
los servicios de RED, por lo que temas
como Servidor de nombres, TCP/IP,
Sistemas Distribuidos, Clusters, Grid y
paralelismo se dejan para otros documentos
dedicados a ello.
Los sistemas operativos de red, además de
incorporar herramientas propias de un
sistema operativo como son por ejemplo las
herramientas para manejo de archivos y
directorios, incluyen otras para el uso,
gestión y mantenimiento de la red, así como
herramientas destinadas a correo
electrónico, envío de mensajes, copia de
archivos entre nodos, ejecución de
aplicaciones contenidas en otras máquinas,
compartición de recursos de hardware, etc.
Existen muchos sistemas operativos
capaces de gestionar una red dependiente
de las arquitecturas de las máquinas que se
utilicen. Los más comunes son : Novell,
Lantastic, Windows 3.11 para trabajo en
grupo, Unix, Linux, Windows 95, Windows
NT, OS/2.. Cada sistema operativo ofrece
una forma diferente de manejar la red y
utiliza diferentes protocolos para la
comunicación, sin importar el que sea, debe
ofrecer los siguientes servicios:
•
•
Los propios de un SO.
•
•
Soporte de Sistemas de Archivos
Remotos.
•
•
Ejecución de aplicaciones compartidas.
•
•
Impresión remota.
•
•
Seguridad en la red.
Después de lo descrito en los párrafos
anteriores, dar una definición de S.O.
resulta muy complicada, por lo que se
presentan a continuación algunas de las
más utilizadas:
“Es un director responsable de coordinar
todos los componentes individuales del
computador de forma que operen juntos
siguiendo un solo plan”.
1
“Es el gerente ejecutivo, la parte del sistema
de cómputo que administra el hardware y
software”.
2
“Es un programa que tiene encomendadas
una serie de funciones diferentes cuyo
objetivo es simplificar el manejo y la
utilización de la computadora , haciéndolo
seguro y eficiente”.
3
Sin embargo si tratamos de reunir todo lo
descrito anteriormente podría quedar algo
así:
“Un Sistema Operativo es un programa
informático cuyo propósito es administrar
los recursos de un sistema de cómputo,
actuando como una interfaz que facilita la
interacción entre el usuario y los elementos
de hardware y software. Principalmente
administra los recursos como la memoria,
los dispositivos de entrada/salida (E/S) y
gestiona varias operaciones, como la
ejecución de programas; se caracteriza por
tener un componente denominado núcleo
(en inglés kernel), que tiene como tarea la
interacción del software con el hardware
mediante señales denominadas llamadas al
sistema, y debe permitir interconexiones
con otras computadoras y otras redes
brindando seguridad y confiabilidad".
En ocasiones es muy amplia la definición de
un concepto y la vuelve tediosa y poco
constructiva, por lo que se deja a los
lectores que envíen sus propuestas de
definición de S.O. para conocer sus puntos
de vista.
C
C
l
l
a
a
s
s
i
i
f
f
i
i
c
c
a
a
c
c
i
i
ó
ó
n
n
d
d
e
e
l
l
o
o
s
s
S
S
i
i
s
s
t
t
e
e
m
m
a
a
s
s
O
O
p
p
e
e
r
r
a
a
t
t
i
i
v
v
o
o
s
s
Debido a la evolución de los sistemas
operativos, fue necesario realizar una
clasificación; considerando las diferencias
existentes entre sus componentes los
podemos clasificar en:
•
•
Sistemas operativos por lotes.
•
•
Sistemas operativos multiprogramación.
•
•
Sistemas operativos multiusuario.
•
•
Sistemas operativos de tiempo compartido
•
•
Sistemas operativos de tiempo real.
1. Sistemas Operativos Gary Nutt Pearson2. Sistemas Operativos Flynn-Mchoes Thomson3. Sistemas Operativos Jesús Carretero Et. al. McGraw Hill
2 7
Los sistemas operativos por lotes; requieren
que la información esté reunida en bloque o
"lote" (el programa, los datos, y las
instrucciones). Los trabajos son procesados
en el orden de llegada, según el modelo
(FIFO) de "primero en llegar, primero en ser
atendido". En estos sistemas la memoria se
divide en dos zonas. Una de ellas es
ocupada por el sistema operativo, y la otra
se usa para cargar programas temporales
para su ejecución. Cuando termina la
ejecución de un programa se carga un
nuevo programa en la misma zona de
memoria.
Los sistemas de multiprogramación;
ejecutan dos o más procesos concurrentes,
permiten que residan al mismo tiempo en la
memoria primaria, las instrucciones y los
datos procedentes de dos o más procesos.
Estos sistemas implican la operación de
multiproceso, para el manejo de la
información. Se caracterizan principalmente
por un gran número de programas activos
simultáneamente que compiten por los
recursos del sistema, como el procesador,
la memoria , y los "dispositivos de E/S".
Los sistemas operativos multiusuario;
permiten acceder simultáneamente a un
sistema de cómputo a través de dos o más
clientes. Este tipo de sistema operativo es
fundamental en el manejo de redes de
computadoras actualmente.
Los sistemas operativos de tiempo
compartido; tratan de hacer un reparto
equitativo de los recursos comunes, para
dar la impresión a los usuarios de que
poseen una computadora independiente. En
estos sistemas el administrador de memoria
proporciona aislamiento y protección de los
programas, ya que generalmente no tienen
necesidad de comunicarse entre ellos. El
control de E/S se encarga de proporcionar o
retirar la asignación a los dispositivos de
forma que se preserve la integridad del
sistema y se proporcione servicio a todos
los usuarios. El administrador de archivos
proporciona protección y control en el
acceso de la información, dada la
posibilidad de concurrencia y conflictos al
tratar de acceder a los archivos.
Sistemas operativos de tiempo real; tienen
como objetivo proporcionar tiempos más
rápidos de respuesta, procesando la
información sin tiempos muertos. En estos
sistemas el administrador de memoria es
relativamente menos solicitado debido a
que muchos procesos residen
permanentemente en memoria. El
administrador de archivos se encuentra
normalmente en grandes sistemas de
tiempo real y su objetivo principal es
manejar la velocidad de acceso, más que la
utilización eficaz del almacenamiento
secundario.
Como se mencionó anteriormente, los
Sistemas Operativos tienen una parte
fundamental llamada Kernel o Núcleo, y
éste es el que define gran parte del
comportamiento general de S.O., existen 2
tipos de núcleos:
•
•
Micronúcleos. El núcleo sólo implementa
el conjunto de funciones mínimas.
Modular.
•
•
Núcleos monolíticos. Todas las funciones
del SO implementadas en el núcleo. No
modular.
Ventajas de los micronúcleos:
- Muy modular
- Fácil de implementar y diseñar
-Añadir nuevos servicios no
necesariamente implica reconstruir el
núcleo
- Fáciles de depurar
- Consumen pocos recursos
- E.T.S.I. Telecomunicaciones
Inconvenientes de los micronúcleos:
- Pérdida de eficiencia en la comunicación
entre los procesos de usuario y el núcleo.
28
Ventajas de los núcleos monolíticos:
- Mayor eficiencia
Inconvenientes de los núcleos monolíticos:
- Consumen más recursos
- Difíciles de depurar
- Difíciles de ampliar
Las siguientes figuras esquematizan las
estructuras de los principales Sistemas
Operativos actualmente más utilizados,
Windows, Unix y Linux.
En la familia del S.O. Windows la versión
más reciente se denomina Windows Vista y
llegará en 7 versiones distintas.
Windows Vista Starter Edition, vendido
exclusivamente en mercados emergentes,
al igual que el actual Windows XP Starter
Edition, está limitado a las características
mínimas. Y tiene funcionamiento simultáneo
de, únicamente, 3 aplicaciones.
Windows Vista Home Basic Edition,
Equivale al Windows XP Home Edition,
incluye el Windows Firewall, control
parental, el Security Center, el Movie Maker,
el Photo Library, entre otros.
Windows Vista Home Premium Edition,
incluye todo lo que tiene el Windows Vista
2 9
Home Basic, agrega autoría de DVD Video,
soporte para HDTV y soporte para la
extracción de DVD, similar al actual
Windows XP Media Center pero con
funciones añadidas.
Windows Vista Professional Edition, dirigido
al empresario, puede unirse a un dominio y
trae el IIS Web Server, similar al Windows
XP Pro.
Windows Vista Small Business Edition,
diseñado para las pequeñas empresas sin
personal de TI, Soporte para copias de
seguridad, ShadowCopy, conexión remota a
servidores y PC fax, acceso prepagado a la
suscripción de servicios de Windows Live,
Small Business o Microsoft Office Live.
Windows Vista Enterprise Edition,
optimizado para la empresa, Trae el
VirtualPC y soporte para interfaz multi-
lenguaje (MUI), dirigido a fabricantes y
trabajadoras en tecnología de la información.
Windows Vista Ultimate Edition, incluye
Windows Vista Home Premium y Windows
Vista Pro, Software para podcasting, gestor
para mejoras el rendimiento en juegos,
posibles descargas gratuitas de música y
películas.
Entre los principales requerimientos están;
un procesador de doble núcleo a partir de
2GHz, 2Gb de memoria RAM, un disco duro
de 15000 RPM y una tarjeta gráfica de
256MB que sea compatible con DirectX 9.1
o superior, el costo varía dependiendo de la
versión que se adquiera.
Para el caso de GNU/Linux, un punto
especial que llama la atención, es que dada
su característica de libertad, un sin número
de organizaciones y particulares, se han
dado a la tarea de construir al rededor del
kernel, lo que se llaman distribuciones.
Una distribución de Linux es simplemente
un conjunto de programas recopilados a lo
largo y ancho de sitios en Internet,
organizados de tal manera que ofrezcan
una solución particular o general hacia él o
los usuarios. No cambia en nada Linux de
una distribución a otra, ya que en realidad
están basadas en el kernel de Linux.
Las personas o empresas que integran las
distribuciones seleccionan software a su
criterio, y lo incorporan dentro de una serie
de discos compactos con conjuntos de
herramientas y aplicaciones de instalación.
Así que a veces una distribución no significa
que sea mejor que otra por tener diez
discos o por que solo esté contenida en un
solo disco. Las distribuciones se adaptan a
las necesidades de los usuarios, ¿para qué
tener una distribución con paquetes y
programas para administración de redes, si
el trabajo será para el hogar? Una
distribución es mejor a otra cuando el
reconocimiento de los usuarios a nivel
mundial le otorgue tal distinción.
También se ha hecho una costumbre que se
cuente con distribuciones LiveCD
(funcionan en memoria RAM), versión para
Memoria Flash USB y para equipos
antiguos con pocos recursos de hardware;
aquí se tienen algunas opciones: adquirir
una distribución empaquetada, descargarla
de algún sitio en Internet, solicitarla a
alguna organización que la distribuye
gratuitamente o pedírsela a algún amigo,
todo esto está permitido por la licencia
GNU/Linux.
Algunas de las Distribuciones más
conocidas a lo largo del mundo son:
•
•
Red Hat
•
•
Fedora
•
•
Debian
•
•
OpenSuse
•
•
SuSe
•
•
Slackware
•
•
Gentoo
•
•
Ubuntu
•
•
Kubuntu
•
•
Mandriva
•
•
Centos
30
Los sistemas de cómputo han evolucionado
de manera importante y ahora podemos
tener un sistema muy pequeño y móvil (en
teléfonos, PALM, iPod, etc.) lo que nos
permite ampliar las posibilidades de
procesamiento informático sin tener que
estar en un lugar en específico, formando
parte de grandes redes de sistemas
distribuidos.
¿Qué hay entonces de los Sistemas
Operativos para esos equipos?, como
ocurre con las computadoras de escritorio y
de mayor tamaño, los equipos móviles
tienen Sistemas Operativos que van
mejorando con el paso del tiempo y el
avance tecnológico.
Con los móviles de nueva generación se
pueden capturar fotos, vídeos, reproducir
archivos MP3, chatear y muchas más cosas
que se potencian aún más con los llamados
“Smartphones”; que no son más que las
tradicionales PDA’s con llamadas y envíos
de mensajes por la red telefónica. Para que
el móvil opere de manera adecuada todas
estas funciones, es necesario un sistema
operativo; en los teléfonos móviles hay una
buena variedad de S.O., demos un vistazo a
algunos de ellos:
Android, es un nuevo producto de Google,
la intención de Google con Android, no es
crear un sistema propietario para móviles,
como ocurre con los demás sistemas
operativos, sino establecer una plataforma
abierta de desarrollo para aplicaciones de
teléfonos móviles. La plataforma integra
muchas tecnologías abiertas como Kernel
Linux 2.6, SQLite, WebKit y Java.
Symbian, se trata todavía del sistema
operativo para móviles más utilizado en el
mercado. Symbian lo utiliza
preferentemente Nokia y Sony Ericcson, ya
que son copropietarias junto con otras
compañías de este sistema operativo.
Windows Mobile, la apuesta de Microsoft
por la conectividad, pero no fue hasta
Mobile 5.0 cuando poco a poco el sistema
de Microsoft se hizo un hueco en el
mercado. Lo incorporan muchos fabricantes
de computadoras que también tienen
Smartphones en sus catálogos como HP o
Samsung o firmas como Qtek o la propia
Palm.
Linux, sí linux está ya disponible en algunos
modelos de teléfonos móviles, aunque no
son muy populares en nuestro mercado.
Algunos fabricantes radicados en China,
Taiwán o Singapur utilizan Linux para
eliminar el costo de las licencias, pero
también grandes firmas como Nec,
Panasonic o Samsung han fabricado
móviles con Linux en su interior. Las
ventajas de los móviles que utilizan Linux
consisten en su robustez ante cuelgues y su
menor precio debido a la inexistencia de
licencias. En su contra, la falta de
aplicaciones desarrolladas para este tipo de
móviles.
Palm OS nació en 1996 de la mano de la
primera máquina Palm Pilot. La versión del
sistema operativo de Palm que más se está
empleando hoy día es Palm OS 5, pero
queda poco para que presenten una nueva
revisión: Palm OS 6.1, también denominada
Cobalt, un sistema operativo de 32 bits
completamente nativo ARM (Acorn RISC
Machine, Advanced RISC Machine) .
Parece ser que el primer dispositivo que
aparecerá con este software será un
teléfono inteligente de GSPDA, integrará
mayores prestaciones multimedia, será más
multitarea, incluirá un nuevo sistema de
protección que impedirá que un único
programa pueda cargarse toda la
información, permitirá pasar sin problemas
de Wi-Fi a GPRS, ver archivos en su
formato nativo (por ejemplo de Microsoft
Office), no obstante, su principal novedad
es que el sistema funciona sobre Linux, el
sistema operativo de software libre.
Para terminar de abordar los puntos
generales sobre Sistemas Operativos se
debe hablar acerca de la virtualización, este
concepto se adopta desde hace ya muchos
años en Sistemas de Cómputo con grandes
capacidades, para que los recursos físicos
de estos equipos, tales como procesadores
y memoria, puedan ser compartidos por
diversos Sistemas Operativos ejecutados al
mismo tiempo, siendo así mejor
aprovechados.
En un sistema no virtualizado, como las
PC's de escritorio disponibles hasta hoy, un
único S.O. controla toda la PC. Mientras
que en un sistema virtualizado, entra en
acción un nuevo componente de software
que, trabajando en conjunto con nuevos
recursos presentes en el procesador, va a
3 1
administrar todas las partes del equipo,
brindándole al usuario la posibilidad de
ejecutar más de un S.O. al mismo tiempo,
pero de manera totalmente independiente.
Este nuevo componente de software va a
presentarle a cada sistema operativo un
conjunto de recursos que podrá utilizar,
llamado máquina virtual. Básicamente
podemos considerar 3 tipos de
virtualización: Emulación, Virtualización
completa (Full Virtualization),
Paravirtualización (Paravirtualization).
E
E
m
m
u
u
l
l
a
a
c
c
i
i
ó
ó
n
n
Se basa en crear máquinas virtuales que
emulan el hardware de una o varias
plataformas distintas, es el más costoso y
menos eficiente, ya que obliga a simular
completamente el comportamiento de la
plataforma hardware a emular, e implica
también que cada instrucción que se
ejecute en estas plataformas sea traducida
al hardware real.
Uno de los ejemplos más destacados de la
actualidad es QEMU, que entre otras cosas,
permite emular diferentes plataformas
Hardware como x86, x86-64, PowerPC,
SPARC o MIPS. Así pues, podríamos tener
dentro de un servidor Linux varios equipos
x86 o PowerPC, corriendo diferentes
versiones de Linux.
V
V
i
i
r
r
t
t
u
u
a
a
l
l
i
i
z
z
a
a
c
c
i
i
ó
ó
n
n
c
c
o
o
m
m
p
p
l
l
e
e
t
t
a
a
Con este término se denominan aquellas
soluciones que permiten ejecutar sistemas
operativos huésped (Guest), sin tener que
modificarlos, sobre un sistema anfitrión
(Host), utilizando en medio un Hypervisor o
Virtual Machine Monitor que permite
compartir el hardware real. Esta capa
intermedia es la encargada de monitorizar
los sistemas huésped con el fin de capturar
determinadas instrucciones protegidas de
acceso al hardware, que no pueden realizar
de forma nativa al no tener acceso directo a
él.
Su principal ventaja es que los sistemas
operativos pueden ejecutarse sin ninguna
modificación sobre la plataforma, aunque
como inconveniente frente a la emulación,
el sistema operativo debe estar soportado
en la arquitectura virtualizada.
En lo que respecta al rendimiento, éste es
significativamente mayor que en la
emulación, pero menor que en una
plataforma nativa, debido a la
monitorización y la mediación del
hypervisor. Sin embargo, recientes
incorporaciones técnicas en las plataformas
x86 hechas por Intel y AMD, como son Intel
VT y AMD-V, han permitido que soluciones
basadas en la virtualización completa se
acerquen prácticamente al rendimiento
nativo.
Algunos ejemplos significativos son
VirtualBox, VMware y KVM.
Hay que tener en cuenta también que la
virtualización completa no se refiere a todo
el conjunto de hardware disponible en un
equipo, sino a sus componentes principales,
básicamente el procesador y memoria. De
esta forma, otros periféricos como tarjetas
gráficas, de red o de sonido, no se
virtualizan. Las máquinas huésped no
disponen de los mismos dispositivos que el
anfitrión, sino de otros virtuales genéricos.
Por ejemplo, si se dispone de una tarjeta
nVidia GeForce en el anfitrión, los equipos
huésped no verán esta tarjeta sino una
genérica Cirrus.
P
P
a
a
r
r
a
a
v
v
i
i
r
r
t
t
u
u
a
a
l
l
i
i
z
z
a
a
c
c
i
i
ó
ó
n
n
Surgió como una forma de mejorar la
eficiencia de las máquinas virtuales y
acercarlo al rendimiento nativo, se basa en
que los sistemas virtualizados (huésped)
deben estar basados en sistemas
operativos especialmente modificados para
ejecutarse sobre un Hypervisor. De esta
forma no es necesario que éste monitorice
todas las instrucciones, sino que los
sistemas operativos huésped y anfitrión
colaboran en la tarea.
Uno de los componentes más destacados
de esta familia es XEN, permite
paravirtualización utilizando sistemas
operativos modificados, y virtualización
completa sobre procesadores con
tecnología Intel-VT o AMD-V. Para la
gestión de las máquinas virtuales existen
aplicaciones propietarias e incluso alguna
open-source como ConVirt, que permite
gestionar también desde un único sitio las
32
máquinas virtuales de diferentes servidores,
realizar tareas sobre ellas, o modificar sus
configuraciones.
Finalmente como se mencionó al principio
del documento el tema es muy amplio y se
pueden seguir abordando los temas con
mayor profundidad, por lo que se invita a los
lectores a investigar más a fondo los temas
aquí tratados y que además seguirán
avanzando, teniendo nuevos aportes
interesantes para conocer, y tal vez los
compartan en este foro.
R
R
e
e
f
f
e
e
r
r
e
e
n
n
c
c
i
i
a
a
s
s
Bibliografía
1.Sistemas Operativos (Una Visión
Aplicada) Jesús Carretero Pérez Et. Al
Ed. Mc Graw Hill
2.Sistemas Operativos 3rª Edición Ida. M.
Flynn Ed. Thompson
3.Sistemas Operativos 3rª Edición Gary Nutt
Ed. Pearson-Eddison Wesley
4.Sistemas Operativos 5tª Edición William
Stallings Ed. Pearson-Eddison Wesley
Internet
http://www.microsoft.com/mexico/windows/d
efault.mspx
http://www.linux.org/
http://www.gnu.org/home.es.html
http://www.stallman.org/
http://www.palm.com/mx/index.html
http://www.fedora-es.com/
http://www.ubuntu-es.org/
http://www.virtualbox.org/
http://www.vmware.com/
3 3
T
T
u
u
t
t
o
o
r
r
i
i
a
a
l
l
e
e
s
s
Hola compañero informático!:)
En este primer número iremos paso a paso en la instalación de Ubuntu. Así es que si estás
listo para explorar nuevas cosas, adelante.
Lo primero que te preguntarás será: ¿Dónde lo consigo?, ¿Qué necesito?.
En el siguiente link http://ubuntu.com.es/descarga.html podrás descargarlo, o bien puedes
adquirir gratuitamente CD's de Ubuntu solicitándolos, y en un par de semanas recibirás una
notificación de correo.
Los requerimientos mínimos para instalar Ubuntu son:
•
•
Procesador Intel™ o compatible a 200 MHz.
•
•
256 MB de RAM
•
•
Tarjeta SVGA
•
•
3 GB de espacio libre en el disco duro
Los requerimientos recomendados son:
•
•
Procesador Intel™ o compatible a 1 GHz.
•
•
512 MB de RAM
•
•
Aceleradora gráfica 3D compatible con OpenGL
•
•
5 GB de espacio libre en el disco duro
Bien, ahora partiendo de que
tenemos nuestro CD
procederemos a la instalación
de Ubuntu. Lo primero será
prender nuestra computadora
y meter el CD para iniciar
desde él, al iniciar el equipo
nos presenta varias opciones
(para cambiar el idioma de esta
pantalla solo presionamos F2 y
elegimos Español, después nos
aparecerá la misma pantalla
pero en español, donde
T
T
U
U
T
T
O
O
R
R
I
I
A
A
L
L
D
D
E
E
I
I
N
N
S
S
T
T
A
A
L
L
A
A
C
C
I
I
Ó
Ó
N
N
D
D
E
E
U
U
B
B
U
U
N
N
T
T
U
U
34
escogemos iniciar o instalar Ubuntu), el Sistema Operativo arranca y como es un disco
vivo, va a poder cargar únicamente en memoria y no va a hacer cambios en nuestro disco
duro, la ventaja de un LiveCD o disco vivo es que podremos “probar” Ubuntu antes de
instalarlo, para así ver si nos convence. Yo les aseguro que será como amor a primera
vista ;)
Al tener a la vista el escritorio seleccionamos la opción Install.
La instalación consiste en 7 etapas.
El primero es seleccionar el idioma,
seleccionamos el español y damos
clic en adelante.
En el segundo me preguntará:
¿Dónde se encuentra?, selecciono
México o el país donde me ubique
y me dará automáticamente la
hora (Aquí yo me puedo ubicar
por medio de un globo que
mostrará para la zona horaria).
3 5
Tercer paso: Selecciono distribución
del teclado, aquí aunque lo lógico
sería utilizar alguna de las opciones
Latin American, es recomendable que
se pruebe si puedes colocar
correctamente acentos y algunos
signos de puntuación antes de dar
clic en siguiente.
Paso 4 de 7: Al dar siguiente nos
aparece una ventana en donde se
preparará el espacio del disco, y nos
pregunta: ¿Cómo desea particionar el
disco?; ¡Cuidado!, se trata de decirle al
instalador dónde debe instalarse.
Asegúrate de escoger la opción
correcta, o podría formatear una
partición no deseada.
Como vemos, existen varias opciones al
instalar.
Nosotros aprenderemos a editar manualmente la tabla de particiones, lo haremos porque es
un caso muy común que la mayoría tenemos instalado Windows, y aunque queremos
probar otro SO, nos resistimos a dejarlo, así es que tendremos Ubuntu y Windows.
Como Windows ocupa todo el disco,
necesitaremos redimensionar la
partición, es decir, cambiar su
tamaño para dejar espacio libre sin
particionar suficiente para Ubuntu.
Para ello selecciona la opción "Editar
manualmente la tabla de particiones"
y pulsa Adelante.
Nos aparecerá la pantalla "Preparar
particiones".
36
En la parte inferior de la pantalla verás una lista de las particiones existentes en tu disco.
Encontrarás al menos una partición NTFS o FAT (dependiendo de la versión de Windows
instalada). Se indica aquí el tamaño total de la partición, el espacio usado y el espacio
libre. Lo primero que haremos es comprobar si tenemos espacio suficiente para la
instalación. Si al observar la columna "libre" encuentras que hay al menos 3 Gb entonces
podemos instalar Ubuntu (Se recomienda dejar más porque 3 Gb sería el tamaño justo
para los datos y no podrías escribir nuevos datos). El procedimiento para redimensionar
la partición es el siguiente:
a) Haz clic con el botón izquierdo del ratón sobre la partición NTFS o FAT a fin de
seleccionarla. Verás entonces como en la parte superior de la pantalla aparece un
esquema gráfico indicando el tamaño total de la partición, el espacio usado y libre.
b) A continuación haz clic con el botón derecho del ratón sobre la partición seleccionada.
En el menú emergente elije "Redimensionar". O bien haz clic en el botón
"Redimensionar" situado en la parte superior de la pantalla.
c) En la ventana emergente establece el nuevo tamaño para la partición. Para ello sitúa el
puntero del ratón en el borde derecho del esquema gráfico de la parte superior, verás
que adopta la forma de una flecha de dos puntas. Da clic a el botón izquierdo del ratón
y sin soltarlo arrastra el puntero hacia la izquierda. Verás entonces como los
indicadores numéricos de la parte inferior de la ventana "Tamaño nuevo" y "Espacio
libre a continuación" van cambiando. Suelta el clic del ratón en el momento en que
"Espacio libre a continuación" indique al menos 3072 MB o el tamaño deseado.
Si este procedimiento te resulta complicado puedes utilizar otro método. Ve al campo
"Tamaño nuevo", verás como después del indicador numérico existe un pequeño cuadro
con dos flechas: la flecha que apunta hacia arriba sirve para aumentar el tamaño de la
partición; la que apunta hacia abajo para disminuirlo. Haz clic en la fecha que apunta
hacia abajo y mantenla pulsada hasta que el indicador "Espacio libre a continuación"
marque al menos 3072.
Una vez que nos hemos
asegurado de que el tamaño de la
partición es el correcto pulsamos
el botón "Redimensionar".
37
d) Hasta ahora no hemos hecho
ningún cambio en nuestro disco
duro. La operación de
redimensionado ha quedado
pendiente, así nos lo indica el
asistente de instalación en la lista
situada hacia el centro de la
ventana.
•
•
Podemos todavía anular los
cambios y volver a empezar
pulsando el botón
"Deshacer".
Si lo que queremos es aplicar los cambios pulsamos el botón "Adelante".
e) Aparecerá entonces una ventana de
diálogo preguntándonos si estamos
seguros de querer ejecutar las
operaciones pendientes. Es nuestra
última oportunidad de volver atrás. Si
queremos seguir adelante con el
proceso pulsamos el botón "Aplicar".
Comienza así la tarea de redimensionado
de la partición.
f) Una vez
concluido el
proceso, el
asistente
nos muestra
la ventana
"Preparar
puntos de
montaje".
3 8
En este momento lo más sencillo es regresar a la pantalla "Preparar espacio del disco",
seleccionar la opción "Utilizar el espacio libre contiguo más grande" y dejar que el
asistente se ocupe automáticamente de crear las particiones necesarias. Para ello haz clic
en el botón "Atrás" tantas veces como sea necesario. Una vez allí, pulsa "Adelante" para
continuar con la instalación.
Paso 5 de 7: Al dar adelante nos aparece la posibilidad “Migrar documentos”
Paso 6 de 7: Nos preguntará, ¿Quién es
usted?. Ingresa Datos de usuario: nombre
de usuario, contraseña y genera un nombre
de maquina. ¡Ojo! Recuerda siempre esta
contraseña, ya que para iniciar sesión,
futuras actualizaciones y requerimientos, la
necesitarás.
Paso 7 de 7: Está listo para instalar, nos
hace un recuento de qué hemos puesto.
Al dar clic en instalar aparece la siguiente
ventana y esperaremos alrededor de 20 a
30 minutos.
Posteriormente nos aparecerá una ventana
como ésta, la cual nos indica que se ha
terminado correctamente la instalación.
39
Al dar clic en Reiniciar el sistema se preparará para su primer arranque, pidiendo sacar el
CD de Ubuntu de la unidad lectora, al reiniciar veremos nuestra pantalla de inicio así:
En esta pantalla iniciaremos
por defecto si no se oprime
otra opción con Ubuntu.
Dentro de las opciones
iniciar desde consola, modo
gráfico o Windows.
Y con estos pasos llegamos finalmente a nuestro escritorio Ubuntu.
Esperamos les sea útil nuestro primer tutorial sobre la instalación de Ubuntu.
4 0
VirtualBox es un programa de virtualización capaz de instalar en nuestra computadora
sistemas operativos basados en Windows y en Linux de 32bits, aunque también hay una
versión beta para MacOS X.
El programa ha sido creado por la empresa alemana InnoTek.
¿
¿
D
D
ó
ó
n
n
d
d
e
e
d
d
e
e
s
s
c
c
a
a
r
r
g
g
a
a
r
r
?
?
Dado que es un programa gratuito,
se puede descargar directamente
de la siguiente página:
http://www.virtualbox.org/, que es
la página oficial del programa. Una
vez dentro de la página accedemos
a la zona de descargas y
seleccionamos la descarga
apropiada según nuestro sistema
operativo.
I
I
n
n
s
s
t
t
a
a
l
l
a
a
c
c
i
i
ó
ó
n
n
En este ejemplo instalaremos
VirtualBox en el SO Windows
XP Professional.
Ejecutaremos el lanzador del
programa y se nos abrirá la
primera pantalla, nos da la
bienvenida y nos informa que
si continuamos se instalará
VirtualBox en nuestro
sistema, pulsamos en next, y
en la siguiente pantalla
deberemos aceptar el
contrato de licencia.
Aceptamos y pulsamos de
nuevo en next.
V
V
I
I
R
R
T
T
U
U
A
A
L
L
I
I
Z
Z
A
A
C
C
I
I
Ó
Ó
N
N
C
C
O
O
N
N
V
V
I
I
R
R
T
T
U
U
A
A
L
L
B
B
O
O
X
X
41
En la siguiente pantalla nos dirá la
ubicación donde se va a instalar, así
como el espacio que necesitará para su
instalación, si dejamos esa por defecto
solo tendremos que pulsar en next para
pasar a la siguiente pantalla.
En esta pantalla se nos advertirá que se van a
copiar los archivos y se instalará el programa,
pulsamos en install y esperaremos el final de la
instalación.
Finalmente aparecerá una pantalla informando
que el programa se ha instalado correctamente.
C
C
r
r
e
e
a
a
n
n
d
d
o
o
u
u
n
n
a
a
m
m
a
a
q
q
u
u
i
i
n
n
a
a
v
v
i
i
r
r
t
t
u
u
a
a
l
l
La primera vez que ejecutamos el
programa nos pide un registro, aquí
sólo ponemos un nombre y una
direccione de e-mail.
Para crear nuestra máquina virtual (MV)
pulsamos el botón “Nueva” que nos
llevará a un asistente para poder
crearla, una vez pulsado el botón de
siguiente nos pedirá un nombre para la
máquina y el tipo de sistema a instalar.
4 2
Una vez hecho esto y estando en la
siguiente pantalla, nos pide seleccionar la
memoria RAM a usar, lo más conveniente
es dejar la que el programa propone.
Aunque si disponemos de suficiente
memoria RAM en nuestro equipo podemos
ampliarla más, no es recomendable
reducir la memoria proporcionada por
default ya que esto podría llevar como
consecuencia un mal rendimiento del SO
instalado.
El siguiente paso es seleccionar el disco
duro a utilizar, en este caso damos en
nuevo y se nos abrirá un nuevo asistente,
lo más recomendable es crear una
imagen de expansión dinámica.
A continuación nos pedirá un nombre
para el disco y cuál será el tamaño
máximo que éste alcanzará; aquí
depende de uno, del uso que se le va a
dar al nuevo sistema y del tamaño del
disco duro físico. Una vez finalizada la
creación del disco nos regresará al
asistente de la MV.
Finalmente damos en siguiente y nos
aparecerá un resumen de la MV que
hemos creado, damos en finalizar y
regresamos a la pantalla principal con
nuestra máquina creada.
En la pantalla aparecen las características
de la MV creada, si queremos modificar
43
alguna opción pulsamos sobre alguna de las letras azules y se nos abrirá una nueva
pantalla en la que podemos modificar los valores que queramos. Desde modificar la RAM
hasta compartir directorios con nuestra máquina host.
Es conveniente revisar cada una de las opciones para habilitar todos los componentes
como el audio, la red e inclusive los puertos USB.
En la parte de CD/DVD-ROM seleccionamos la
casilla de “Montar la unidad de CD/DVD”, y si
tenemos una imagen ISO con el SO a instalar la
seleccionamos, una vez hecho esto damos clic
en OK, enseguida en el botón de iniciar.
Ahora aparecerá una ventana que nos
explica que cada vez que pulsemos la
tecla Host (la tecla Ctrl Dcha, de la
derecha del teclado), se capturará el
teclado en la Máquina Virtual. Al pulsarlo
otra vez, tendremos el efecto contrario.
Ahora lo que sigue es
instalar el SO que
escogimos; y a disfrutar de
otro SO en la misma
máquina sin necesidad de
hacer particiones a nuestro
disco duro.
4 4
O
O
p
p
i
i
n
n
i
i
o
o
n
n
d
d
e
e
.
.
.
.
.
.
LA HISTORIA DEL BOTÓN ROJO
E
mpezaré esta redacción con una
anécdota: en alguna ocasión fui
contratado para realizar la
implementación de un software de punto
de venta, todo marchó sin contratiempos
y de acuerdo al plan de trabajo
establecido, llegado el momento de
finalizar y entregar la implementación, el
dueño del establecimiento me preguntó
por el “botón rojo”, mismo que yo no
había mencionado durante el proceso de
capacitación, y que él supuso que por la
importancia de la función que este botón
realizaría lo dejaría al final y reservado a
los tomadores de decisión del negocio.
Ante mi desconcierto del tema el dueño
fue más explícito, me dijo que el
vendedor del software le prometió “un
botón rojo” que estaría instalado en el
escritorio de su computadora, cuya
función sería BORRAR toda la
información llegado el caso de una
auditoría por parte de las H. autoridades
hacendarias, sin dejar rastro alguno de
las transacciones realizadas (ni de la
existencia del mismo botón rojo, por
supuesto).
Éste y muchos otros casos
representativos se dan en la
cotidianeidad del ejercicio de la
profesión, es indudable y legítimo que
un empresario busque las estrategias
necesarias para hacer más eficiente su
negocio y obtener mayores utilidades,
sin embargo, cuando esta búsqueda no
se da en una línea paralela de ética
profesional y del ejercicio de buenas
prácticas profesionales y máxime si es
nuestro desempeño el vehículo de
acción, se presta a la reflexión.
J
J
a
a
v
v
i
i
e
e
r
r
L
L
ó
ó
p
p
e
e
z
z
F
F
l
l
o
o
r
r
e
e
s
s
•
•
Egresado de la Licenciatura en Informática de la FES
Cuautitlán (UNAM). Generación 1998-2003.
•
•
Cuenta con amplia experiencia en control y administración
de proyectos, principalmente hacia el sector público.
•
•
Actualmente es gerente general de iidesoft México.
45
Volviendo al tema del famoso botón rojo:
La implementación y funcionamiento de
la aplicación dio el resultado (operativo)
esperado, pero en ese momento yo
desconocía el tipo de sanciones que se
haría acreedor un contribuyente que
omita datos sobre su actividad ante el
fisco, pero sí conocía métodos existentes
para recuperar información y algunas
técnicas de informática forense que
ocupan las autoridades. Le conté de
algunos casos conocidos de recuperación
de información y sus consecuencias,
además le hice ver el riesgo y pérdida de
control que representaría para la
operación de su negocio vaciar las bases
de datos. A la fecha formamos parte del
grupo de colaboradores de esta empresa
y jamás se volvió a mencionar el botón
rojo.
En la actualidad dirijo una empresa
dedicada al desarrollo de software y
servicios de consultoría especializada de
la que soy socio. Puedo afirmar que a la
fecha hemos cometido todos los errores
posibles y que otros más están a la
vuelta de la esquina, pero hemos tenido
la fortuna de saber capitalizarlos y
aprender de ellos. Tenemos objetivos
claros y bien definidos, uno de ellos es
no promover el uso de botones rojos ni
versiones similares.
Mi compromiso como empresario es
desarrollar productos innovadores,
deleitar a nuestros clientes y garantizar
su confianza, todo en un marco de
respeto y uso de buenas prácticas
profesionales, que a la larga se traduce
en el sostén de nuestro negocio, y por
que no, de colaborar en la construcción
de un mejor país con mejores
condiciones en general.
Uno de los objetivos que dio pie a la
creación de este espacio es la
convivencia entre los miembros de la
comunidad de informática de la FES-
Cuautitlán: alumnos, egresados,
profesores e interesados en el tema.
Invocando a la reflexión que convoqué
líneas arriba, los invito a visualizar la
relevancia que tendrá el ejercicio diario
de su profesión. El manejo de la
información que estará en sus manos les
hará conocer de manera íntima a las
organizaciones donde se desempeñen
independientemente de que sean
públicas o privadas, conocerán sus
fortalezas, debilidades y vulnerabilidades
y sus acciones podrán o no colaborar en
el crecimiento y desarrollo de estas.
Estoy seguro que se enfrentarán a
botones rojos a lo largo de estancia
como alumnos y muchos más en su vida
profesional, de ustedes depende el uso
que le den.
4 6
Despertarum fue realizada con Scribus
1.3.4 y Gimp 2.2