Ir al contenido

Buscar en La Comunidad

Mostrando resultados por etiquetas 'manual'.

  • Buscar Por Etiquetas

    Añade etiquetas separadas por comas.
  • Buscar Por Autor

Tipo de Contenido


Foros

  • Contacto con el staff
    • Novedades / Anuncios del foro
    • Sugerencias
    • Problemas relacionados con el foro
  • Zona general de charla
    • Presentaciones
    • Charla
    • Zona de Humor, Curiosidades y Otros
    • Mascotas Vagos
    • Noticias del Mundo
    • Tecnología
    • Ayuda y consultas de carácter general
  • Zona GNU/Linux
    • Ayuda, consultas y soporte GNU/Linux
    • Distribuciones GNU/Linux
    • Repositorios. Software GNU/Linux
    • Personalización
    • Raspberry Pi
    • Arduino
    • Manuales / Tutoriales / Guías GNU/Linux
    • Programación
    • Noticias GNU/Linux
    • Hablando de GNU/Linux
  • Zona Gaming
    • Juegos GNU/Linux
    • Noticias Gamer
    • Charla Gamer
  • Zona Móvil
    • Ayuda y soporte para dispositivos móviles
    • Apps Móviles
    • Manuales / Tutoriales / Guías Móviles
    • Roms para dispositivos Móviles
    • Noticias sobre dispositivos Móviles
    • Hablando sobre dispositivos Móviles
  • Zona Mozilla
    • Ayuda, consultas y soporte Mozilla
    • Aplicaciones Mozilla
    • Roms Firefox OS
    • Manuales / Tutoriales / Guías Mozilla
    • Noticias Mozilla
    • Hablando de Mozilla
  • Microsoft
    • Papelera del Foro

Encontrar resultados en...

Encontrar resutados que...


Fecha de Creación

  • Start

    Fin


Última Actualización

  • Start

    Fin


Filtrar por numero de...

Joined

  • Start

    Fin


Grupo


Página Web


Diaspora


Pump


GNU Social


Google +


Twitter


Facebook


Xmpp


Skype


Steam


Desura


MediaGoblin


Youtube


Vimeo


Picasa


Flickr


Email


Lugar


Intereses

Encontramos 19 resultados

  1. Este libro está dirigido a todos aquellos que quieran relacionarse (o que ya tengan relación) con el sistema operativo GNU/Linux. El libro trata temas muy diversos, pero de forma que quien no conoce absolutamente nada acerca de este sistema pueda entenderlo y comenzar a dar sus primeros pasos con él. Por su parte, los usuarios que ya tienen experiencia pueden encontrar conceptos útiles y formas de desarrollar soluciones a los diferentes problemas que se presentan habitualmente. Contenido: Capitulo 1: Genesis Historia de GNU/Linux Capitulo 2: Primeros pasos Proceso de inicio. El sistema de archivos. Capitulo 3: Trabajando con el modo texto Archivos, procesos y usuarios Capitulo 4: La programacion en el lenguaje Bash Variables, argumentos y expresiones. Estructuras condicionales y funciones Capitulo 5: La programacion en lenguaje Perl Variables, arreglos, expresiones y estructuras. Bases de datos. Capitulo 6: El modo grafico Xwindow. Ventanas y escritorio. Capitulo 7: GNU/Linux en red Direcciones IP. Protocolos NNTP y FTP. Capitulo 8: Login remoto Telnet, Secure Shell, sshd y SSH. Capitulo 9: Instalar un servidor web Fetchmail. Apache. Configuracion. Capitulo 10: El servicio NFS Instalacion y caracteristicas. Capitulo 11: Interconexion en red con Windows Instalacion y configuracion de Samba Capitulo 12: Firewalls y proxies Instalacion. El comando iptables. Capitulo 13: El sistema VNC Instalacion, caracteristicas y funcionamiento. Capitulo 14: Clusters Beowulf Clusters en GNU/Linux. Instalacion de Mosix. Descarga Mirror 1Fichier http://z3wnh8.1fichier.com/es/ Mirror Putlocker http://www.putlocker.com/file/6526A908D8D3C3EF Google drive: Renombrado y con clave gnulinuxvagos.es https://drive.google.com/file/d/0B4FF12HzhOl4bVFUN2hxejR0STQ/edit?usp=sharing
  2. El kit de herramientas de lenguaje natural, o más comúnmente NLTK, es un conjunto de bibliotecas y programas para el procesamiento del lenguaje natural (PLN) simbólico y estadísticos para el lenguaje de programación Python. NLTK incluye demostraciones gráficas y datos de muestra. Se acompaña de un libro que explica los conceptos subyacentes a las tareas de procesamiento del lenguaje compatibles el toolkit, además de programas de ejemplo. NLTK está destinado a apoyar la investigación y la enseñanza en PLN o áreas muy relacionadas, que incluyen la lingüística empírica, las ciencias cognitivas, la inteligencia artificial, la recuperación de información, y el aprendizaje de la máquina. NLTK se ha utilizado con éxito como herramienta de enseñanza, como una herramienta de estudio individual, y como plataforma para los sistemas de investigación de prototipos y construcción. Por ejemplo, se puede emplear para ver el Ordenamiento por mezcla, es un algoritmo de ordenamiento externo estable basado en la técnica divide y vencerás. Es de complejidad O(n log n): También se emplea para trabajar con grandes corpus: En su web podéis leer tanto el libro como ver el manual de instalación (http://www.nltk.org/). La instalación de NLTK es bastante sencilla: 1.- Instalar el Setuptools: http://pypi.python.org/pypi/setuptools 2.- Instalar Pip: sudo easy_install pip (código) 3.- Instalar nltk: sudo pip install -U nltk (código) [Opcional: -Instalar Numpy: sudo apt-get install python-numpy -Instalar Matlab: sudo apt-get install python-matplotlib -Instalar tkinter: sudo apt-get install python-tk Yo recomiendo instalarlo si queremos ver gráficos o estadísticas. ] Para comprobar si lo hemos instalado bien, abrimos un terminal y tecleamos: python import nltk Si no nos da nigún error enhorabuena, ya tendremos instalado nltk en nuestro equipo Ahora solo falta descargar lo que necesitemos de nltk. Tenemos la opción de descargarnos el libro(entendiendo como libro unos de corpus, herramientas y varias funciones interesantes), herramientas específicas o todo. Yo me descargué todo, ya que si me aburro ya que si me aburro puedo toquetear un poco xD. Para descargarnos lo que queramos introducimos esto: nltk.download() Si hemos descargado en el python tkinter y el matlab podremos verlo en modo gráfico: Si no hemos instalado el tkinter, tendremos que hacerlo por el terminal y nos aparecerá algo como: nltk.download() NLTK Downloader --------------------------------------------------------------------------- d) Download l) List u) Update c) Config h) Help q) Quit --------------------------------------------------------------------------- Downloader> d Download which package (l=list; x=cancel)? Identifier> punkt Downloading package 'punkt' to D:\python27\nltk_data... Unzipping tokenizers\punkt.zip. --------------------------------------------------------------------------- d) Download l) List u) Update c) Config h) Help q) Quit --------------------------------------------------------------------------- Downloader> q Trabajando con textos: Una vez descargados los datos, solo hace falta importar lo que necesitemos. Por ejemplo la carga de txts: Los textos que tenemos a nuestra disposición son: -text1:Moby Dick by Herman Melville 1851 -text2:Sense and Sensibility by Jane Austen 1811 -text3: The Book of Genesis -text4: Inaugural Address Corpus -text5: Chat Corpus -text6: Monty Python and the Holy Grail -text7: Wall Street Journal -text8: Personals Corpus -text9: The Man Who Was Thursday by G . K . Chesterton 1908 from nltk.book import * Los textos importados pertenecen a la clase "text" de la librería nltk, e incorporan diferentes funciones. Las funciones más útiles para el análisis semántico son: concordance: Devuelve las líneas del texto “text1” en las que aparece “monstrous”. sintaxis: text1.concordance("monstrous") >>> text1.concordance("monstrous") Displaying 11 of 11 matches: ong the former , one was of a most monstrous size . ... This came towards us , ON OF THE PSALMS . " Touching that monstrous bulk of the whale or ork we have r ll over with a heathenish array of monstrous clubs and spears . Some were thick d as you gazed , and wondered what monstrous cannibal and savage could ever hav that has survived the flood ; most monstrous and most mountainous ! That Himmal they might scout at Moby Dick as a monstrous fable , or still worse and more de th of Radney .'" CHAPTER 55 Of the monstrous Pictures of Whales . I shall ere l ing Scenes . In connexion with the monstrous pictures of whales , I am strongly ere to enter upon those still more monstrous stories of them which are to be fo ght have been rummaged out of this monstrous cabinet there is no telling . But of Whale - Bones ; for Whales of a monstrous size are oftentimes cast up dead u >>> similar -> Devuelve palabras usadas de forma similar en el texto. sintaixs: text1.similar("monstrous") >>> text1.similar("monstrous") mean part maddens doleful gamesome subtly uncommon careful untoward exasperate loving passing mouldy christian few true mystifying imperial modifies contemptible common_contexts-> Encuentra contextos comparTdos por dos o más palabras. Los "_" que obtenemos como resultado, es donde iría la palabra. sintaxis: text2.common_contexts(["monstrous", "very"]) >>> text2.common_contexts(["monstrous", "very"]) a_pretty is_pretty am_glad be_glad a_lucky Todas estas funciones, juegan bastante con otras funciones útiles de python como son: len(text1) set(text1) sorted(set(text1)) Por ejemplo, queremos tener una variable que contenga el vocabulario (por orden alfabético) de un texto: words=sorted(set(text1)) También podemos hacer uso de los operadores matemáticos: def percentage(count,total): return 100*count/total #calcula la frecuencia de aparición de una palabra. Ya que estamos trabajando con textos, tenemos que saber que los textos están formados por palabras, números, signos de puntuación...pero todo es un string. Por eso cuando trabajamos con el procesamiento de textos, tenemos que tener claras las herramientas que podemos utilizar: -s.startswith(t): test if s starts with t -s.endswith(t): test if s ends with t -t in s: test if t is contained inside s -s.islower(): test if all cased characters in s are lowercase -s.isupper(): test if all cased characters in s are uppercase -s.isalpha(): test if all characters in s are alphabetic -s.isalnum(): test if all characters in s are alphanumeric -s.isdigit(): test if all characters in s are digits -s.isTtle(): test if s is Ttlecased (all words in s have have iniTal capitals) -s.find(t): index of first instance of string t inside s (-­‐1 if not found) -s.rfind(t): index of last instance of string t inside s (-­‐1 if not found) -s.index(t):like s.find(t) except it raises ValueError if not found -s.rindex(t):like s.rfind(t) except it raises ValueError if not found -s.join(text):combine the words of the text into a string using s as the glue -s.split(t):split s into a list wherever a t is found (whitespace by default) -s.splitlines():split s into a list of strings, one per line -s.lower():a lowercased version of the string s -s.upper():an uppercased version of the string s -s.title():a titlecased version of the string s -s.strip():a copy of s without leading or trailing whitespace -s.replace(t, u):replace instances of t with u inside s Otra función bastante útil es FreqDist(Frequency Distributions), que muestra la frecuencia de aparación de cada elemento. fdist1=FreqDist() fdist1 es una función que genera una variable de la clase nltk.probability.freqdist. Incorpora diferentes funciones que permiten generar el vocabulario del texto y la frecuencia de aparación de cada elemento (en orden decreciente): >>> fdist1 = FreqDist(text1) >>> print(fdist1) <FreqDist with 19317 samples and 260819 outcomes> >>> fdist1.most_common(50) [(',', 18713), ('the', 13721), ('.', 6862), ('of', 6536), ('and', 6024), ('a', 4569), ('to', 4542), (';', 4072), ('in', 3916), ('that', 2982), ("'", 2684), ('-', 2552), ('his', 2459), ('it', 2209), ('I', 2124), ('s', 1739), ('is', 1695), ('he', 1661), ('with', 1659), ('was', 1632), ('as', 1620), ('"', 1478), ('all', 1462), ('for', 1414), ('this', 1280), ('!', 1269), ('at', 1231), ('by', 1137), ('but', 1113), ('not', 1103), ('--', 1070), ('him', 1058), ('from', 1052), ('be', 1030), ('on', 1005), ('so', 918), ('whale', 906), ('one', 889), ('you', 841), ('had', 767), ('have', 760), ('there', 715), ('But', 705), ('or', 697), ('were', 680), ('now', 646), ('which', 640), ('?', 637), ('me', 627), ('like', 624)] >>> fdist1['whale'] 906 >>> Incluye, entre otras, las siguientes funciones: -fdist.samples(): Genera una lista con el vocabulario -fdist.values(): Devuelve el no de veces que aparece cada palabra -fdist.N(): No total de palabras en el texto -fdist.freq(word): Devuelve la frecuencia de aparación de word -fdist.inc(palabra): Incrementa la cuenta para una palabra -fdist.max(): Palabra con máxima frecuencia -fdist.tabulate(): Tabula la distribución de frecuencia -fdist.plot(): Representación gráfica Si no queremos cargar todos los textos de NLTK, podemos importar el corpus que nos interese a nosotros. Tenemos dos formas de hacerlo: 1.- Vemos los textos que hay disponibles: nltk.corpus.gutenberg.fileids() >>>​['austen-­‐emma.txt', 'austen-­‐persuasion.txt', ... Y seleccionamos uno de ellos: emma = nltk.corpus.gutenberg.words('austen-­‐emma.txt') 2.- Directamente: from nltk.corpus import gutenberg emma = gutenberg.words('austen-­‐emma.txt') Las métodos que se pueden emplear en los corpus son: fileids(): the files of the corpus fileids([categories]): the files of the corpus corresponding to these categories categories(): the categories of the corpus categories([fileids]): the categories of the corpus corresponding to these files raw(): the raw content of the corpus raw(fileids=[f1,f2,f3]):the raw content of the specified files raw(categories=[c1,c2]): the raw content of the specified categories words(): the words of the whole corpus words(fileids=[f1,f2,f3]): the words of the specified fileids words(categories=[c1,c2]): the words of the specified categories sents(): the sentences of the whole corpus sents(fileids=[f1,f2,f3]): the sentences of the specified fileids sents(categories=[c1,c2]): the sentences of the specified categories abspath(fileid): the locaTon of the given file on disk encoding(fileid): the encoding of the file (if known) open(fileid): open a stream for reading the given corpus file root(): the path to the root of locally installed corpus readme(): the contents of the README file of the corpus Ejemplos de algunos métodos para trabajar con los corpus: fileids(): >>> import nltk >>> nltk.corpus.gutenberg.fileids() ['austen-emma.txt', 'austen-persuasion.txt', 'austen-sense.txt', 'bible-kjv.txt','blake-poems.txt', 'bryant-stories.txt', 'burgess-busterbrown.txt','carroll-alice.txt', 'chesterton-ball.txt', 'chesterton-brown.txt','chesterton-thursday.txt', 'edgeworth-parents.txt', 'melville-moby_dick.txt','milton-paradise.txt', 'shakespeare-caesar.txt', 'shakespeare-hamlet.txt','shakespeare-macbeth.txt', 'whitman-leaves.txt'] categories(): >>> from nltk.corpus import brown >>> brown.categories() ['adventure', 'belles_lettres', 'editorial', 'fiction', 'government', 'hobbies','humor', 'learned', 'lore', 'mystery', 'news', 'religion', 'reviews', 'romance','science_fiction'] words(): >>> nltk.corpus.udhr.words('Javanese-Latin1')[11:] ['Saben', 'umat', 'manungsa', 'lair', 'kanthi', 'hak', ...] >>> nltk.corpus.cess_esp.words() ['El', 'grupo', 'estatal', 'Electricit\xe9_de_France', ...] >>> nltk.corpus.floresta.words() ['Um', 'revivalismo', 'refrescante', 'O', '7_e_Meio', ...] sents(): >>> macbeth_sentences = gutenberg.sents('shakespeare-macbeth.txt') >>> macbeth_sentences [['[', 'The', 'Tragedie', 'of', 'Macbeth', 'by', 'William', 'Shakespeare', '1603', ']'], ['Actus', 'Primus', '.'], ...] Objetivos: Trabajando con documentos: Textos planos: Se puede importar cualquier texto plano. La descarga desde un repositorio web puede hacerse así: >>> from __future__ import division # Python 2 users only >>> import nltk, re, pprint >>> from nltk import word_tokenize >>>from urllib import urlopen >>>url = "h{p://www.gutenberg.org/files/2554/2554.txt" >>>raw = urlopen(url).read() >>>from urllib import * >>> url = "http://www.gutenberg.org/files/2554/2554.txt" >>> response = urlopen(url) >>> raw = response.read().decode('utf8') >>> len(raw) 1176893 >>> raw[:75] 'The Project Gutenberg EBook of Crime and Punishment, by Fyodor Dostoevsky\r\n' En la variable “raw” se encuentra texto sin procesar. Antes de proceder a su procesado hay que formatearlo (tokenizaton). El formato consiste simplemente en convertirlo en una lista de elementos (palabras, frases, bigramas,trigramas...): tokens = nltk.word_tokenize(raw) Páginas Web: Resulta bastante interesante la importación de páginas web: >>> from __future__ import division # Python 2 users only >>> import nltk, re, pprint >>> from nltk import word_tokenize >>>from urllib import * >>> url = "http://news.bbc.co.uk/2/hi/health/2284783.stm" >>> html = urlopen(url).read().decode('utf8') >>> html[:60] '<!doctype html public "-//W3C//DTD HTML 4.0 Transitional//EN' El problema que nos encontramos es también obtenemos todas las etiquetas HTML, perco contamos con un método para eliminar automáticamente las etiquetas antes de la "tokenización": >>> from bs4 import BeautifulSoup >>> raw = BeautifulSoup(html).get_text() >>> tokens = word_tokenize(raw) >>> tokens ['BBC', 'NEWS', '|', 'Health', '|', 'Blondes', "'to", 'die', 'out', ...] RSS: >>> import feedparser >>> llog = feedparser.parse("http://languagelog.ldc.upenn.edu/nll/?feed=atom") >>> llog['feed']['title'] 'Language Log' >>> len(llog.entries) 15 >>> post = llog.entries[2] >>> post.title "He's My BF" >>> content = post.content[0].value >>> content[:70] '<p>Today I was chatting with three of our visiting graduate students f' >>> raw = BeautifulSoup(content).get_text() >>> word_tokenize(raw) ['Today', 'I', 'was', 'chatting', 'with', 'three', 'of', 'our', 'visiting','graduate', 'students', 'from', 'the', 'PRC', '.', 'Thinking', 'that', 'I', 'was', 'being', 'au', 'courant', ',', 'I', 'mentioned', 'the', 'expression', 'DUI4XIANG4', '\u5c0d\u8c61', '("', 'boy', '/', 'girl', 'friend', '"', ...] Contenido local: -Cargar datos locales: >>>path = nltk.data.find('corpora/gutenberg/melville-­‐ moby_dick.txt') #Busca el texto >>>raw = open(path,'rU').read() #Carga el texto >>>tokens = nltk.word_tokenize(raw) #Formato >>>raw[1:29] 'Moby Dick by Herman Melville’ **Otra forma de seleccionar el archivo sería: >>>file = os.path.join('carpeta', 'subcarpeta','archivo') #Es necesario importar os (import os) Procesamiento del contenido de los documentos: Después de haber trabajado con los documentos el siguiente paso sería dedicarnos a su procesamiento. Dentro del procesamiento del contenido de los archivos, podemos trabajar con: -Tokenización: Uno de los procesos que puede llevar a cabo la tokenización es el paso de texto a frases, es decir, el programa reconoce que una frase nueva empieza despues de cada punto. Por ejemplo: >>> from nltk.tokenize import sent_tokenize >>> frase = 'Esto es una prueba para GNU Linux Vagos. Y no se me ocurre mucho mas que poner en esta frase de prueba. Se me olvidaba, Linux rules!' >>> sent_tokenize(frase) ['Esto es una prueba para GNU Linux Vagos.', 'Y no se me ocurre mucho mas que poner en esta frase de prueba.', 'Se me olvidaba, Linux rules!'] Como vemos, cada vez que encuentra un punto da por termiada la frase encerrandola entre comillas y devolviendonos una lista con todas las frases distintas que encuentra este método. Esto se debe a la instancia PunktSentenceTokenizer, que funciona para una gran cantidad de idiomas. Sin embargo si queremos formatear muchas frases en un determinado idioma se recomienda cargar su módulo correspondiente. Disponemos de los siguientes tokenizers: danés, esloveno, finés, alemán, noruego, checo, italiano, español, polaco, griego, estonio, inglés, turco, sueco, holandés, portugues y francés. Para poder importar el módulo que queramos tendremos que escribir lo siguiente: >>> import nltk.data >>> tokenizer = nltk.data.load('tokenizers/punkt/german.pickle') #Donde sustituiremos german.pickle por uno de los idiomas que se encuentran disponibles.pickle, Sin embargo, da un poco "igual" importar un idioma u otro ya que antes hemos escrito: "frase = 'Esto es una prueba para GNU Linux Vagos. Y no se me ocurre mucho mas que poner en esta frase de prueba. Se me olvidaba, Linux rules!' " y acabamos de importar el idioma alemán pero el resultado que obtenemos es el mismo: >>> tokenizer.tokenize(frase) ['Esto es una prueba para GNU Linux Vagos.', 'Y no se me ocurre mucho mas que poner en esta frase de prueba.', 'Se me olvidaba, Linux rules!'] #Esto se debe a que se emplea un sistema bastante sencillo que hemos explicado ante. Un punto, una frase nueva #(parece primaria esto xD ) Otra posibilidad que nos ofrece la tokenización es el paso de texto a tokens, es decir, de frases a palabras: >>> from nltk.tokenize import word_tokenize >>> word_tokenize('Hola, GNU Linux Vagos.') ['Hola', ',', 'GNU', 'Linux', 'Vagos', '.'] #Como podemos observar, un token es tanto una palabra como un signo de puntuación. Sin #embargo en idiomas como el inglés en el que hay contracciones estas son reconocidas y no #son valoradas como un token extra. Después de haber comentado un poco como funciona seguramente mas de uno se habrá quedado pensando en la utilidad de todo esto, de que sirve separar una frase en tokens y que me los devuelva en un string? Visto así pues puede resultar poco útil, pero que os parece si jugamos un poco con las expresiones regulares? :D Una expresión regular, a menudo llamada también regex, es una secuencia de caracteres que forma un patrón de búsqueda, principalmente utilizada para la búsqueda de patrones de cadenas de caracteres u operaciones de sustituciones. Por ejemplo, el grupo formado por las cadenas Handel, Händel y Haendel se describe con el patrón "H(a|ä|ae)ndel". La mayoría de las formalizaciones proporcionan los siguientes constructores: una expresión regular es una forma de representar a los lenguajes regulares (finitos o infinitos) y se construye utilizando caracteres del alfabeto sobre el cual se define el lenguaje. En informática, las expresiones regulares proveen una manera muy flexible de buscar o reconocer cadenas de texto. Y dejando a un lado la teoría, vamos con la practica. Seguímos utilizando los módulos de tokenización pero ahora solo hace falta importar el módulo de RegEx: >>> from nltk.tokenize import regexp_tokenize Y ahora a jugar con las RegEx: >>> regexp_tokenize("i can't breathe.","[\S']+") ['i', "can't", 'breathe.'] >>> regexp_tokenize("i can't breathe.","[\w']+") ['i', "can't", 'breathe'] Si os habeís fijado bien, en la primera frase al hacer la tokenización el punto no ha sido considerado como un token y en la segunda directamente ni se tiene en cuenta. Eso se debe a "[\S']+" y "[\S']+" respectivamente. El "+" que tienen en común indica que puede haber 1 o más de un item X; la w, indica que solo se tienen en cuenta los caractéres alfanuméricos. Os dejo por aquí la sintaxis de las expresiones regulares: . => Wildcard ^abc => Encuentra un patrón abc al inicio de una cadena abc$ => Encuentra abc al final de una cadena [abc] => Encuentra uno de un conjunto de caracteres [A-­‐Z0-­‐9] => Encuentra uno de un rango de caracteres ed|ing|s => Encuentra una de las cadenas especificadas (disjuncTon) * => Cero o más de los ítems previos. Ej.: a*, [a-­‐z]* (Kleene Closure) + => Uno o más de los ítems previos, Ej.: a+, [a-­‐z]+ ? => Opcional, ej.: a?, [a-­‐z]? {n} => Exactamente n repeTciones {n,} => Al menos n repeticiones {,n} => No más de n repeticones {m,n} => Al menos m y no más de m a(b|c)+ => Paréntesis que indica el objeto de las operaciones \b => Word boundary (zero width) \d => Cualquier decimal (equivalente a [0-­‐9]) \D => Cualquier no decimal (equivalente a [^0-­‐9]) \s => Cualquier espacio (equivalente a [ \t\n\r\f\v] \S => Cualquier no espacio (equivalente a [^ \t\n\r\f\v]) \w => Cualquier alfanumérico (equivalente a [a-­‐zA-­‐Z0-­‐9_]) \W => Cualquier no alfanumérico (equivalente a [^a-­‐zA-­‐Z0-­‐9_]) \t => Tabulador \n => Nueva línea \r => Retorno de carro \f => Form feed (página nueva) \v => Tabulador vertical Otra utilidad de las expresiones regulares es la búsqueda de palabras que contengan por ejemplo un sufijo, prefijo, afijo o lo que queramos: >>>import re >>> wordlist = [w for w in nltk.corpus.words.words('en') if w.islower()]#Carga del vocabulario >>> words = [w for w in wordlist if re.search('ed$',w)]#todas las parabras que terminen en -ed >>> print words[:25] [u'abaissed', u'abandoned', u'abased', u'abashed', u'abatised', u'abed', u'aborted', u'abridged', u'abscessed', u'absconded', u'absorbed', u'abstracted', u'abstricted', u'accelerated', u'accepted', u'accidented', u'accoladed', u'accolated', u'accomplished', u'accosted', u'accredited', u'accursed', u'accused', u'accustomed', u'acetated'] Más ejemplos: >>> words = [w for w in wordlist if re.search('^..j..t..$', w)] >>> words [:15] [u'abjectly', u'adjuster', u'dejected', u'dejectly', u'injector', u'majestic', u'objectee', u'objector', u'rejecter', u'rejector', u'unjilted', u'unjolted', u'unjustly'] En este ejemplo estamos buscando una palabra que tenga 8 letras en las que aparezca en tercera posición una j y en sexta posición una t. -Lematización o lo que es lo mismo, la extracción de las raíces de las palabras. NLTK trabaja con 3 lematizadores, el de Porter, Lancaster y Snowball. >>> raw= "Each character in a regular expression is either understood to be a metacharacter with its special meaning, or a regular character with its literal meaning. Together, they can be used to identify textual material of a given pattern, or process a number of instances of it that can vary from a precise equality to a very general similarity of the pattern." >>> tokens = nltk.word_tokenize(raw) Porter: >>> porter = nltk.PorterStemmer() >>> [porter.stem(t) for t in tokens] [u'Each', u'charact', u'in', u'a', u'regular', u'express', u'is', u'either', u'understood', u'to', u'be', u'a', u'metacharact', u'with', u'it', u'special', u'mean', u',', u'or', u'a', u'regular', u'charact', u'with', u'it', u'liter', u'mean', u'.', u'Togeth', u',', u'they', u'can', u'be', u'use', u'to', u'identifi', u'textual', u'materi', u'of', u'a', u'given', u'pattern', u',', u'or', u'process', u'a', u'number', u'of', u'instanc', u'of', u'it', u'that', u'can', u'vari', u'from', u'a', u'precis', u'equal', u'to', u'a', u'veri', u'gener', u'similar', u'of', u'the', u'pattern', u'.'] Lancaster: >>> lancaster=nltk.LancasterStemmer() >>> [lancaster.stem(t) for t in tokens] ['each', 'charact', 'in', 'a', 'regul', u'express', 'is', 'eith', 'understood', 'to', 'be', 'a', 'metacharact', 'with', 'it', 'spec', 'mean', ',', 'or', 'a', 'regul', 'charact', 'with', 'it', 'lit', 'mean', '.', 'togeth', ',', 'they', 'can', 'be', 'us', 'to', 'ident', 'text', 'mat', 'of', 'a', 'giv', 'pattern', ',', 'or', 'process', 'a', 'numb', 'of', u'inst', 'of', 'it', 'that', 'can', 'vary', 'from', 'a', 'prec', 'eq', 'to', 'a', 'very', 'gen', 'simil', 'of', 'the', 'pattern', '.'] Lematizador Snowball: Funciona con varias lenguas entre las que encontramos: inglés, frances, espanol, portugés, italiano, alemán, dutch, swedish, norwegian, danish, ruso y finés. >>> from nltk.stem import SnowballStemmer >>> spanish_stemmer = SnowballStemmer("spanish") >>> frase = "Estoy escribiendo un poco sobre NLTK mientras estoy tomandome un cafe, tengo bastante cansancio acumulado quizas deberia dormir mas." >>> tokens = nltk.word_tokenize(frase) >>> [spanish_stemmer.stem(t) for t in tokens] [u'estoy', u'escrib', u'un', u'poc', u'sobr', u'nltk', u'mientr', u'estoy', u'tom', u'un', u'caf', u',', u'teng', u'bastant', u'cansanci', u'acumul', u'quiz', u'deberi', u'dorm', u'mas', u'.'] Lo que estamos hacieno es utilizar un lematizador que extrae la auténtica raíz de cada palabra a partir de un diccionario. NLTK utiliza WordNet(explicaré otro día un poco mas sobre esta herramienta), una base de datos léxica en inglés. >>>from nltk.stem import WordNetLemmatizer >>> frase = "the French stemmer turns out to be the most complicated, whereas the Russian stemmer, despite its large number of suffixes, is very simple. In fact it is interesting that English, with its minimal use of i-suffixes, has such a complex stemmer." >>> tokens = nltk.word_tokenize(frase) >>>lemmatizer = WordNetLemmatizer() >>>[lemmatizer.lemmatize(t) for t in tokens] ['the', 'French', 'stemmer', u'turn', 'out', 'to', 'be', 'the', 'most', 'complicated', ',', 'whereas', 'the', 'Russian', 'stemmer', ',', 'despite', u'it', 'large', 'number', 'of', u'suffix', ',', 'is', 'very', 'simple', '.', 'In', 'fact', 'it', 'is', 'interesting', 'that', 'English', ',', 'with', u'it', 'minimal', 'use', 'of', 'i-suffixes', ',', u'ha', 'such', 'a', 'complex', 'stemmer', '.'] Con Lancaster lo que obtenemos es la palabra con los sufijos extraidos: >>> lancaster = nltk.LancasterStemmer() >>> [lancaster.stem(t) for t in frase] ['t', 'h', 'e', ' ', 'f', 'r', 'e', 'n', 'c', 'h', ' ', 's', 't', 'e', 'm', 'm', 'e', 'r', ' ', 't', 'u', 'r', 'n', 's', ' ', 'o', 'u', 't', ' ', 't', 'o', ' ', 'b', 'e', ' ', 't', 'h', 'e', ' ', 'm', 'o', 's', 't', ' ', 'c', 'o', 'm', 'p', 'l', 'i', 'c', 'a', 't', 'e', 'd', ',', ' ', 'w', 'h', 'e', 'r', 'e', 'a', 's', ' ', 't', 'h', 'e', ' ', 'r', 'u', 's', 's', 'i', 'a', 'n', ' ', 's', 't', 'e', 'm', 'm', 'e', 'r', ',', ' ', 'd', 'e', 's', 'p', 'i', 't', 'e', ' ', 'i', 't', 's', ' ', 'l', 'a', 'r', 'g', 'e', ' ', 'n', 'u', 'm', 'b', 'e', 'r', ' ', 'o', 'f', ' ', 's', 'u', 'f', 'f', 'i', 'x', 'e', 's', ',', ' ', 'i', 's', ' ', 'v', 'e', 'r', 'y', ' ', 's', 'i', 'm', 'p', 'l', 'e', '.', ' ', 'i', 'n', ' ', 'f', 'a', 'c', 't', ' ', 'i', 't', ' ', 'i', 's', ' ', 'i', 'n', 't', 'e', 'r', 'e', 's', 't', 'i', 'n', 'g', ' ', 't', 'h', 'a', 't', ' ', 'e', 'n', 'g', 'l', 'i', 's', 'h', ',', ' ', 'w', 'i', 't', 'h', ' ', 'i', 't', 's', ' ', 'm', 'i', 'n', 'i', 'm', 'a', 'l', ' ', 'u', 's', 'e', ' ', 'o', 'f', ' ', 'i', '-', 's', 'u', 'f', 'f', 'i', 'x', 'e', 's', ',', ' ', 'h', 'a', 's', ' ', 's', 'u', 'c', 'h', ' ', 'a', ' ', 'c', 'o', 'm', 'p', 'l', 'e', 'x', ' ', 's', 't', 'e', 'm', 'm', 'e', 'r', '.'] El lematizador también nos ayuda a encontrar un lema para una palabra. En el caso de no encontrar un lema, devuelve la palabra: >>> lemmatizer.lemmatize("tokens") u'token' Además el lemmatizer reconoces adjetivos(pos ='a'), sustantivos(pos='n'), adverbios(pos='r') y verbos(pos='v') >>> lemmatizer.lemmatize('readings', pos='n') u'reading' >>> lemmatizer.lemmatize('readings', pos='v') u'read' >>> lemmatizer.lemmatize('readings', pos='r') 'readings' # como hemos dicho, si no encuentra un lema devuelve la palabra introducida -Eliminación de stopwords: Eliminación de palabras irrelevantes. NLTK tiene una librería para eliminar las stopwords, es decir, aquellas que no contribuyen al significado como serían "de", "la", "el", "que", "en"... La librería soporta los siguientes idiomas: noruego, italiano, portugués, francés, español, holandés, danés, finlandés, alemán, húngaro, Inglés, sueco, turco y ruso. >>> from nltk.corpus import stopwords >>> stopwords.words('spanish') #sustituir el idioma por el que queramos. [u'de', u'la', u'que', u'el', u'en', u'y', u'a', u'los', u'del', u'se', u'las', u'por', u'un', u'para', u'con', u'no', u'una', u'su', u'al', u'lo', u'como', u'más', u'pero', u'sus', u'le', u'ya', u'o', u'este', u'sí', u'porque', u'esta', u'entre', u'cuando', u'muy', u'sin', u'sobre', u'también', u'me', u'hasta', u'hay', u'donde', u'quien', u'desde', u'todo', u'nos', u'durante', u'todos', u'uno', u'les', u'ni', u'contra', u'otros', u'ese', u'eso', u'ante', u'ellos', u'e', u'esto', u'mí', u'antes', u'algunos', u'qué', u'unos', u'yo', u'otro', u'otras', u'otra', u'él', u'tanto', u'esa', u'estos', u'mucho', u'quienes', u'nada', u'muchos', u'cual', u'poco', u'ella', u'estar', u'estas', u'algunas', u'algo', u'nosotros', u'mi', u'mis', u'tú', u'te', u'ti', u'tu', u'tus', u'ellas', u'nosotras', u'vosostros', u'vosostras', u'os', u'mío', u'mía', u'míos', u'mías', u'tuyo', u'tuya', u'tuyos', u'tuyas', u'suyo', u'suya', u'suyos', u'suyas', u'nuestro', u'nuestra', u'nuestros', u'nuestras', u'vuestro', u'vuestra', u'vuestros', u'vuestras', u'esos', u'esas', u'estoy', u'estás', u'está', u'estamos', u'estáis', u'están', u'esté', u'estés', u'estemos', u'estéis', u'estén', u'estaré', u'estarás', u'estará', u'estaremos', u'estaréis', u'estarán', u'estaría', u'estarías', u'estaríamos', u'estaríais', u'estarían', u'estaba', u'estabas', u'estábamos', u'estabais', u'estaban', u'estuve', u'estuviste', u'estuvo', u'estuvimos', u'estuvisteis', u'estuvieron', u'estuviera', u'estuvieras', u'estuviéramos', u'estuvierais', u'estuvieran', u'estuviese', u'estuvieses', u'estuviésemos', u'estuvieseis', u'estuviesen', u'estando', u'estado', u'estada', u'estados', u'estadas', u'estad', u'he', u'has', u'ha', u'hemos', u'habéis', u'han', u'haya', u'hayas', u'hayamos', u'hayáis', u'hayan', u'habré', u'habrás', u'habrá', u'habremos', u'habréis', u'habrán', u'habría', u'habrías', u'habríamos', u'habríais', u'habrían', u'había', u'habías', u'habíamos', u'habíais', u'habían', u'hube', u'hubiste', u'hubo', u'hubimos', u'hubisteis', u'hubieron', u'hubiera', u'hubieras', u'hubiéramos', u'hubierais', u'hubieran', u'hubiese', u'hubieses', u'hubiésemos', u'hubieseis', u'hubiesen', u'habiendo', u'habido', u'habida', u'habidos', u'habidas', u'soy', u'eres', u'es', u'somos', u'sois', u'son', u'sea', u'seas', u'seamos', u'seáis', u'sean', u'seré', u'serás', u'será', u'seremos', u'seréis', u'serán', u'sería', u'serías', u'seríamos', u'seríais', u'serían', u'era', u'eras', u'éramos', u'erais', u'eran', u'fui', u'fuiste', u'fue', u'fuimos', u'fuisteis', u'fueron', u'fuera', u'fueras', u'fuéramos', u'fuerais', u'fueran', u'fuese', u'fueses', u'fuésemos', u'fueseis', u'fuesen', u'sintiendo', u'sentido', u'sentida', u'sentidos', u'sentidas', u'siente', u'sentid', u'tengo', u'tienes', u'tiene', u'tenemos', u'tenéis', u'tienen', u'tenga', u'tengas', u'tengamos', u'tengáis', u'tengan', u'tendré', u'tendrás', u'tendrá', u'tendremos', u'tendréis', u'tendrán', u'tendría', u'tendrías', u'tendríamos', u'tendríais', u'tendrían', u'tenía', u'tenías', u'teníamos', u'teníais', u'tenían', u'tuve', u'tuviste', u'tuvo', u'tuvimos', u'tuvisteis', u'tuvieron', u'tuviera', u'tuvieras', u'tuviéramos', u'tuvierais', u'tuvieran', u'tuviese', u'tuvieses', u'tuviésemos', u'tuvieseis', u'tuviesen', u'teniendo', u'tenido', u'tenida', u'tenidos', u'tenidas', u'tened'] Como podéis ver la herramienta de NLTK es muy útil y se puede emplear para hacer bastantes cosas. Esto ha sido una pequeña introducción, a medida que yo también vaya avanzando con NLTK iré comentando que he aprendido nuevo, algún que otro ejercicio... Oos recomiendo que busquéis algo mas sobre python para trabajar con mas soltura http://gnulinuxvagos.es/topic/68-manual-python-para-todos-creative-commons/ http://gnulinuxvagos.es/topic/1915-pep-gu%C3%ADa-de-estilo-de-programaci%C3%B3n-en-python/
  3. TLP es una herramienta avanzada para configuración de la administración de energía en sistemas GNU/Linux. Con ella podremos exprimir aún más las baterías de nuestros equipos portátiles y/o disminuir el consumo de forma eficientemente. En combinación con el conocido Powertop, esta herramienta puede resultar muy útil a la hora de resolver nuestros problemas con duración de la batería de nuestro equipo. Instalación Debian ArchLinux Fedora PPA Comandos de TLP Configuración Avanzada Comprobar estado de TLP
  4. Curso realizado por Salvador Gómez Oliver. En el año 2011 Contenidos: 1. Conceptos básicos 2. Interfaz de Usuario 3. Widgets de Escritorio 4. Menús 5. Tratamiento de XML 6. Bases de datos 7. Preferencias 8. Localización Geográfica 9. Mapas 10. Ficheros 11. Content Providers 12. Notificaciones 13. Depuración de aplicaciones En formato pdf. Contiene 222 páginas. Manual Programacion Android SgoliverNet v2.zip4.8 MB https://mega.nz/#!RtwEBQTB!auYCpRPlmurmZku_bXn6htZAfgqhU37O7tF7sPrtSvc
  5. Todos estamos que nos subimos por las paredes con la inminente llegada de la nueva API gráfica del grupo Khronos, Vulkan (¿O acaso soy sólo yo? ). Con cierto retraso, como es habitual, y la promesa de su inminente llegada, Vulkan se está haciendo de rogar más de la cuenta y, aunque cada vez son más los indicios de su lanzamiento final, seguimos sin tener una fecha concreta. Hoy tenemos una prueba más de que Vulkan está a la vuelta de la esquina. Graham Sellers (AMD) y John Kessenich (Google) han publicado la guía oficial de programación de Vulkan, con una portada en una línea muy similar al famoso libro rojo de OpenGL, 900 páginas de contenido y que ya puede reservarse en Amazon. La fecha estimada para distribución, según la plataforma, es Agosto de este año, así que al menos sabemos que Vulkan llegará antes. ¿Cuando? Los rumores vuelven a circular y, dado que la GDC de este año está plagada de conferencias sobre Vulkan y demostraciones llevadas a cabo por la mayoría de las compañías implicadas, la semana del 14 al 18 de Marzo parece ser, si no la fecha definitiva de lanzamiento, el escenario más propicio para dar a conocer al mundo el nuevo estándar abierto que guiará a la industria del entretenimiento en el futuro próximo. http://www.amazon.com/Vulkan-Programming-Guide-Official-Learning/dp/0134464540
  6. Hola, os dejo un pequeño manual para modificar el arranque de UEFI en la bios en un pc de sobremesa compaq cq 2000pc, por si a alguien le pueda valer. Un saludo. https://mega.nz/#fm/GAYRlTjQ
  7. Si hoy me acorde de la roca que es Slackware y una de las distros que mejor sirve para entender GNU/Linux, aunque todas sirven sin duda Slack por hacerlo todo mucho a mano y mismo edicion de path to software es la distro siempre a conocer si se puede. Bueno se trae el libro Slackware Linux Essentials una introdución de manejo hacia este sistema. Es una revision ya antigua pero seguro nos sirve : ftp://ftp.slackbook.org/slackbook/slackbook-2.0.pdf Facilmente la encontramos en la WEB pero asi queda constancia de la misma en el foro por si alguién desea leer. Segunda Edición.
  8. Hola, hace poco me enteré de que el centro educativo en el que me he titulado como técnico, también se ha hecho centro examinador lpi, aunque de momento sólo para el grado más básico, Linux Essentials. Como más vale pájaro en mano, y seguro que hay alguna cosa que aprendo, hice la consulta con un profesor, que me indicó que me buscara el material de estudio, que hay por la red, y de echo, las páginas oficiales de la LPI recomiendan una serie de libros. Como siempre, hay un doble eco (economía y ecología) que afecta a la posibilidad del bolsillo de cada uno, pero afortunadamente hay una mínima posibilidad de no saltarse la legalidad y poder acceder a la info. Hay una editorial alemana que ofrece el pdf de este examen totalmente free (en inglés y alemán), y es posible también encontrarlo en forma de aplicación android en la play store. Como apunte, recomiendo hacer también una visita a la página oficial de la LPI, porque hay variaciones en el examen, y por tanto en el material de estudio, y aunque esta editorial informa de que mantendrá el libro actualizado, de momento no es así.
  9. http://www.pildorasinformaticas.es/Descargas Tiene un apartado de foro, pero lo que tiene de muy bueno es que tiene tutoriales sobre lenguajes bien explicados que podemos descargar con jdownloader o youtube-dl por ejemplo. Lenguajes que se abordán - java, HTML5, CSS(estilos pa html), javascript (script web). Los videos no tienen perdida son muy muy buenos, yo los estoy siguiendo. Se usa Eclipse en el caso de java como entorno de programación algo bueno pa linuxeros.
  10. El libro Domando al escritor es un texto que explica cómo sacar el mayor provecho de Apache OpenOffice 4 Writer. Nacido del buen hacer de un gran contribuyente a la comunidad OpenOffice, conocido como El pingüino Tolkiano y a pesar que trata sobre una versión relativamente antigua, a día de hoy sigue siendo muy válida a la hora de desenvolverse con suites ofimáticas actuales tales como Libreoffice o el renacido Apache OpenOffice. Desde el correcto uso de estilos y plantillas hasta la estructura de los archivos odt, pasando por el uso de Math, Draw y Chart, los campos y las referencias cruzadas, la base de datos bibliográfica, el correcto uso del registro de página, fuentes tipográficas con tecnología Graphite, documentos maestros, registro y control de versiones y un largo etcétera que se extiende por casi 320 páginas. Las herramientas básicas Configurando la interfaz de Writer (capítulo rescrito) Comentarios y control de versiones (¡nuevo capítulo!) Estilos y plantillas en Writer Numerando páginas: los estilos de página Numerando capítulos Imágenes incrustadas y vinculadas Dando forma al documento Configurando el índice de contenidos Listas numeradas y viñetas (capítulo rescrito) Notas al pie y notas finales Las secciones (¡nuevo capítulo!) Texto en columnas (capítulo rescrito) Usando tablas en Writer (capítulo rescrito) Los marcos Autocorrección y autotexto Herramientas avanzadas El navegador Campos, referencias cruzadas y afines (capítulo rescrito) La base de datos bibliográfica Introducción rápida a los documentos maestros Math Draw (capítulo rescrito) Mostrando datos gráficamente: Chart (¡nuevo capítulo!) Buscar y reemplazar: las expresiones regulares (capítulo rescrito) Automatizado de procesos: la registradora de macros Registro de página Utilizando propiedades tipográficas avanzadas Extensiones Configurar la corrección ortográfica Writer, PDF e imágenes vectoriales Trabajando en colaboración Trucos, problemas y soluciones Problemas simples Cambiar rápidamente el orden de los párrafos Eliminar el renglón extra bajo una tabla Encabezados en dos líneas, alineadas a la izquierda Trucos usando fuentes Graphite Numerando con los «nombres» de los números Alineando la numeración de las notas al pie Anclas de nota al pie entre paréntesis Símbolos en lugar de números Paréntesis rectos en texto en bastardilla (¡nuevo!) Insertar datos bibliográficos fuera del índice bibliográfico Problemas «medios» Numeración de capítulos continua: Secuencias numéricas Encabezados en dos líneas, alineación general Encabezados en línea Ligaduras con fuentes no Graphite Notas al final del documento pero no en una nueva página, segunda parte Encabezamientos y campos Campos e índice no reflejan el formato directo del texto original, primera parte Problemas difíciles Campos e índice no reflejan el formato directo del texto original, segunda parte «Hackeando» un archivo odt Apéndices Apéndice A Macros para aplicar y quitar ligaduras Apéndice B Ejemplos y temas varios Descarga Versión en PDF https://elpinguinotolkiano.files.wordpress.com/2012/05/domandoalescritor40.pdf Versión en ePub https://sites.google.com/site/rgbmldcwriterideas/AOO40-Writer%20Domando%20al%20Escritor%20RC3.zip Comprar versión impresa (LuLu.com) http://www.lulu.com/content/libro-tapa-blanda/domando-al-escritor-2/12867228 Web https://elpinguinotolkiano.wordpress.com/domando-al-escritor-2/
  11. La administración es el mantenimiento rutinario necesario para que un sistema crezca y se modifique. Es vital, incluso en una máquina de un solo usuario Desde cybercursos ponen a nuestra disposición este manual totalmente en español que nos ayudará a aprender cómo administrar nuestro sistema *nix Descarga http://www.putlocker.com/file/623264D04B4CA6EB Google drive: https://docs.google.com/file/d/0B4FF12HzhOl4bWpVWENPckFLbnc/edit?usp=sharing Box https://app.box.com/s/bm4glt57dfev087btiqe
  12. El Análisis Forense es la aplicación de métodos científicos en investigaciones criminales. Es un campo único de estudio que deriva de todas las áreas de la ciencia, desde la entomología a la genética, desde la geología a las matemáticas, con el único objetivo de resolver un misterio. Esto levanta una gran expectación para el público en general. Gracias a las series de TV, millones de personas están familiarizadas con cómo una marca de rifle en una bala puede identificar el arma de un asesinato y como el “luminol” se usa para revelar manchas de sangre en el baño. El Análisis Forense de Ordenadores estudia como éstos están involucrados en la realización de un crimen. Entre estos podemos citar el fraude de contabilidad, chantaje, robos de identidad, pornografía infantil o las intrusiones de un hacker black-hat en un sistema. En todos estos casos, los contenidos de un disco duro pueden contener evidencias críticas de un crimen. El análisis de discos y el rastreo de e-mails entre varias personas se han convertido en herramientas comunes para las fuerzas de la ley en todo el mundo. Enlace de descarga: http://ubuntuone.com/46ZrZc2nNym3uVLVhbL2HB BOX: https://app.box.com/s/83rtiirqn1qrfx09zoht Google Drive: https://docs.google.com/file/d/0B4FF12HzhOl4TVRldlJFX0NDYzQ/edit?usp=sharing
  13. Desde la propia Wiki de la Document Foundation están ya disponibles los manuales Oficiales de las aplicaciones que componen la suite Ofimática Libre Libreoffice Descarga Guía de Introducción odt | pdf Guía de LibreOffice Writer odt | pdf Guía de LibreOffice Math odt | pdf Guía de LibreOffice Impress odt | pdf Guía de LibreOffice Base odt | pdf Web de la wiki https://wiki.documentfoundation.org/Main_Page
  14. Manual para la mejor DAW (Digital Audio Workstation) libre para GNU/Linux: “Ardour”, pertenece a Floss-Manuals y está completamente en español: Descarga Mega https://mega.co.nz/#!twcEmASY!InXPpCFMBYZVSg52oxjPvCfW5khpU4KOV2Qw3PH2-X8 1Fichier http://wzm4jg.1fichier.com/ Box https://www.box.com/s/wkl8njouzwb2trifryfm Putlocker http://www.putlocker.com/file/45615CB23A4EC3C7 Google Drive: https://docs.google.com/file/d/0B4FF12HzhOl4bkRMaDQ0Z282Uk0/edit?usp=sharing Web http://ardour.org/
  15. Este libro, escrito por Raphaël Hertzog y Roland Mas, es una interesante contribución desde y para la comunidad Debian y GNU/Linux en general. Para algunos que sé que están interesados, diré que existe una versión impresa del libro y que la versión en español se espera que esté disponible pronto. Ésta es la versión original (en Inglés), que está disponible en Pdf, Epub, Html, Mobi y también puede verse online. La versión española para descargar llegará junto con el nuevo libro. La tabla de contenidos viene a ser la siguiente: The Debian Project Presenting the Case Study Analysing the Existing Setup and Migrating Installation Packaging System: Tools and Fundamental Principles Maintenance and Updates: The APT Tools Solving Problems and Finding Relevant Information Basic Configuration: Network, Accounts, Printing... Unix Services Network Infrastructure Network Services: Postfix, Apache, NFS, Samba, Squid, LDAP Advanced Administration Workstation Security Creating a Debian Package Conclusion: Debian's Future Derivative Distributions Short Remedial Course DESCARGA Pdf Versión Original http://debian-handbook.info/download/stable/debian-handbook.pdf Versión en Español http://debian-handbook.info/download/es-ES/stable/debian-handbook.pdf ePub Versión Original http://debian-handbook.info/download/stable/debian-handbook.epub Versión en Español http://debian-handbook.info/download/es-ES/stable/debian-handbook.epub Mobipocket Versión Original http://debian-handbook.info/download/stable/debian-handbook.mobi Versión en Español http://debian-handbook.info/download/es-ES/stable/debian-handbook.mobi Se trata de un proyecto con el que se puede colaborar abiertamente, bien mediante donaciones o descargando el código fuente y ayudando a traducir el libro en cualquier idioma. Para obtener el código fuente para ayudar con la traducción basta con: git clone git://anonscm.debian.org/debian-handbook/debian-handbook.git La página del proyecto, donde podemos comprar el libro: http://debian-handbook.info/ NOTA Para los usuarios de Debian, el libro ha entrado como paquete en la rama Testing o Unstable. Basta con un simple: aptitude install debian-handbook Para conseguir el libro
  16. Hola a todos, os traigo un nuevo manual de Fernando Monroy, titulado "Corre linux corre2", esta vez ha sustituido ubuntu por Debian, con lo cual, lo mismo alguno hasta se alegra , os dejo el enlace a mega, espero que dure, está bastante bien explicado, de todos modos es para principiantes e intermedios pero creo que nunca está demás pegarle una legañada. Saludos. https://mega.co.nz/#!6R5FHBrK!SP7dakyxzjd9tHl8FWabMhCzwK1fLRw9cFtfuhIUz8g
  17. Aquí os dejo un resumido pdf donde nos introduce al hacking con el buscador Google, para sacarle no todo el partido que se le puede sacar, pero si para introducirnos en el uso mas específico con los buscadores en este caso Google. Veremos varios aspectos como son: El ABC de Google Técnicas básicas de hacking con Google Búsqueda de información con Google Automatizando a Google Cómo evitar a Google Descargas [servidor Mega] link [Actualizado] Añado otro tutorial más extenso de la web hack x crack [servidor Mega] link Google drive: https://docs.google.com/file/d/0B4FF12HzhOl4bXFwYW82OWFoWEk/edit?usp=sharing Box: https://app.box.com/s/r8v0qhqujqc7fxtefx0r
  18. Gimp es un maravilloso y muy potente software para edición de imágenes, comparable a otros muy conocidos para adelgazar modelos o agregar fantasmas reflejados en ventanas, pero con la ventaja inigualable de ser libre. ¿Por qué aprenderlo a los tropezones? Todos los autores prometen que sus libros y tutoriales serán paso a paso y el conocimiento crecerá suavemente dentro del lector, que encontrará la felicidad de ser guiado por la vía del saber como quien recorre el delta del río Tigre en un catamarán. Por lo tanto, decidí de una vez por todas ordenar todo ese material que había escrito para quien tenga ganas de aprender a usar Gimp o de usar estas guías con sus alumnos en clase. Y prometo continuar trabajando en este material renovándolo de acuerdo a la nueva versión. Descarga (PDF) http://www.etnassoft.com/biblioteca/aprenda-gimp-a-los-tropezones/ Mirror Mega (Gracias Veloz46) https://mega.co.nz/#!BlIGmYjK!PAdykhBhhYbt9m_jwA2VqVYgsVDmaHG1-n-dhhQscZQ Mirror Mega (2) (Gracias Granje) https://mega.co.nz/#!7Jp2BCYT!NUlTHkRgfo1anmUYznv2PgAPfIY2qJzaRQSxTs2ePRo
  19. Buenas pues eso estoy buscando un manual para instalar, configurar y poner en marcha OpenVPN. Esto se debe a que antes usaba un tunel mediante PPTP y ahora que he instalado de nuevo debian (versión testing) en el pc, me he decidido a pasarme a OpenVPN. Encontre muchas guías entre las cuales esta la de la wiki de debian me gustaría si tuvierais algo en vuestro poder de documentanción que me contárais donde puedo conseguirlo.
×
×
  • Crear Nuevo...